نگاهی به تنظیمگری هوش مصنوعی در 2024
سالی که گذشت هوش مصنوعی از یک حوزه بکر قانونگذاری به تیتر اول اخبار تبدیل شد. این جهش را تا حدی مدیون ChatGPT و فراگیر شدن آن هستیم که باعث شد مردم هم با تواناییها و محدودیتهای هوش مصنوعی بیشتر آشنا شوند. در بحث سیاستگذاری نیز سال مهمی را پشت سر گذاشتیم: اول از همه اتحادیه اروپا روی قانون مهم هوش مصنوعی به توافق رسید، جلسات سنای آمریکا و دستور اجرایی رئیس جمهور این کشور را شاهد بودیم و چین هم مقررات خاصی را برای چیزهایی مثل الگوریتمهای پیشنهاددهنده در نظر گرفت. اگر سال ۲۰۲۳ را سال توافق قانونگذاران روی یک چشمانداز بدانیم، ۲۰۲۴ سالی است که سیاستها به اقدام تبدیل میشوند. در ادامه این مطلب انتظارات مجله MIT Technology Review از آینده قانونگذاری هوش مصنوعی در سال پیش رو را مطالعه میکنید.
ایالات متحده
به گزارش پیوست، هوش مصنوعی در سال ۲۰۲۳ به مباحث سیاسی ایالات متحده ورود کرد و چیزی فراتر از بحث مذاکره را نیز مشاهده کردیم. اقداماتی را هم در قالب دستور اجرایی بایدن در اواخر ماه اکتبر پس از درخواست روز افزون برای شفافیت بیشتر و استانداردهای جدید شاهد بودیم. با این اقدام، رایحهای از سیاست هوش مصنوعی ایالات متحده را مشاهده کردیم: سیاستی دوستدار صنعت هوش مصنوعی با تاکید بر بهترین عملکردها، اتکا بر آژانسهای مختلف برای تنظیمگری و قانونگذاری متفاوت برای هر بخش از اقتصاد. روندی که از ۲۰۲۳ آغاز شد در سال پیش رو قدرت میگیرد و بسیاری از جزئیات دستور اجرایی بایدن به قانون تبدیل میشوند. همچنین صحبتهای زیادی درمورد موسسه امنیت هوش مصنوعی آمریکا به گوش میرسد که احتمالا مسئول اجرای بیشتر این سیاستها است.
از نگاه کنگره اما هنوز مسیر مشخصی را شاهد نیستیم. چاک شومر، رهبر اکثریت سنا، میگوید قوانین جدیدی به دستور اجرایی اضافه میشوند. تا همین امروز هم چندین قانون پیشنهادی برای جوانب مختلف AI مثل شفافیت، دیپفیکها و مسئولیتپذیری پلتفرم ارائه شده است اما مشخص نیست کدام یکی از این پیشنهادات به تصویب میرسند و آیا اصلا قانونی در سال جدید تصویب خواهد شد.
آنچه میتوان انتظارش را داشت رویکردی است که انواع و کاربردهای مختلف هوش مصنوعی را براساس میزان خطر دستهبندی میکند. رویکردی شبیه به قانون هوش مصنوعی اتحادیه اروپا. کریس مسرول، رئیس Frontier Model Forum، از نهادهای لابی صنعتی میگوید موسسه ملی استانداردها و فناوری چارچوبی را در این حوزه پیشنهاد کرده که هر بخش و آژانس باید آن را به اجرا بگذارد.
مسئله روشن دیگری نیز وجود دارد: انتخابات سال ۲۰۲۴ ایالات متحده احتمالا رنگ و بوی مقررات هوش مصنوعی را مشخص میکند. با توجه به تاثیر هوش مصنوعی مولد بر پلتفرمهای شبکه اجتماعی و اطلاعات وارونه، میتوان بحثهایی را پیرامون نحوه جلوگیری از تاثیر و خطرات این تکنولوژی در مناظرههای انتخاباتی انتظار داشت.
اروپا
اتحادیه اروپا به تازگی روی قانون هوش مصنوعی، اولین قانون کامل AI در جهان، به توافق رسید. پس از بحث داغ و توافق رسمی کشورهای اروپایی و پارلمان اتحادیه اروپا در نیمه اول سال ۲۰۲۴، این قانون به زودی در دست اجرا قرار میگیرد. در خوشبینانهترین حالت، ممنوعیت یک سری کاربردهای هوش مصنوعی را باید تا پایان سال جاری انتظار داشت. درنتیجه صنعت هوش مصنوعی در سال ۲۰۲۴ باید خود را برای مقررات جدید آماده کند. اگرچه بیشتر اپلیکیشنهای هوش مصنوعی از این قانون تاثیر نمیپذیرند اما شرکتهای ارائه دهنده مدلها و اپلیکیشنهای بنیادی به عنوان عاملی «پرخطر» برای حقوق اساسی قملداد میشوند و مواردی که در بخشهای آموزش، درمان و پلیس استفاده میشوند باید استانداردهای اتحادیه اروپا را رعایت کنند. در اروپا، پلیس نمیتواند در مکانهای عمومی، مگر با تایید دادگاه برای اهداف خاصی مثل تروریسم، جلوگیری از قاچاق انسان یا پیدا کردن فردی گم شده، از هوش مصنوعی استفاده کند.
کاربرداهی دیگر هوش مصنوعی مثل ایجاد پایگاههای داده تشخیص چهرهای شبیه به Clearview AI یا استفاده از تکنولوژی تشخیص احساس در محل کار یا مدارس به طور کامل در اروپا ممنوع میشوند. قانون هوش مصنوعی اتحادیه اروپا شرکتها را به شفافسازی درمورد نحوه توسعه مدلها ملزم میکند و آنهایی که از سیستمهای پرخطر هوش مصنوعی استفاده میکنند مسئولیت بیشتری در قبال آسیبهای ناشی از آن خواهند داشت. شرکتهای توسعه دهنده مدلهای بنیادی، محصولاتی مثل GPT-4 که دیگر ابزارها براساس آنها ساخته میشوند، باید در بازه یک سال پس از اجرایی شدن این قانون از مقررات جدید پیروی کنند. دیگر شرکتهای تکنولوژی دو سال برای پیروی از قوانین زمان دارند. شرکتهای هوش مصنوعی برای پیروی از قوانین باید توجه بیشتری به نحوه ساخت سیستمها داشته باشند و مستندات دقیقی برای بازبینی تهیه کنند. این قانون شرکتها را ملزم میکند تا شفافیت بیشتری درمورد نحوه آموزش مدلها ارائه کنند و اطمینان حاصل شود که سیستمهای پرخطر هوش مصنوعی برای به حداقل رساندن موضوعاتی مثل سوگیری، به اندازه کافی براساس دادههای فراگیر آموزش دیده و آزمایش شوند. اتحادیه اروپا بر این باور است که بیشتر مدلهای قدرتمند هوش مصنوعی از جمله GPT-4 از اوپنایآی و Gemini از گوگل، ممکن است خطری «سیستماتیک» را برای شهروندان به دنبال داشته باشند و درنتیجه باید بیشتر برای پیروی از استانداردهای اتحادیه اروپا تلاش کنند. شرکتها باید برای ارزیابی و جلوگیری از خطرات تدابیری را در نظر گرفته و امنیت سیستمها را تضمین کنند. همچنین این شرکتها باید رخدادهای جدی را گزارش داده و جزئیاتی از مصرف انرژی خود را گزارش کنند. وظیفه ارزیابی سیستمها و تشخیص اینکه آیا مدل آنها در این دسته قرار میگیرد یا خیر بر عهده شرکتها است.
ایالات متحده
به گزارش پیوست، هوش مصنوعی در سال ۲۰۲۳ به مباحث سیاسی ایالات متحده ورود کرد و چیزی فراتر از بحث مذاکره را نیز مشاهده کردیم. اقداماتی را هم در قالب دستور اجرایی بایدن در اواخر ماه اکتبر پس از درخواست روز افزون برای شفافیت بیشتر و استانداردهای جدید شاهد بودیم. با این اقدام، رایحهای از سیاست هوش مصنوعی ایالات متحده را مشاهده کردیم: سیاستی دوستدار صنعت هوش مصنوعی با تاکید بر بهترین عملکردها، اتکا بر آژانسهای مختلف برای تنظیمگری و قانونگذاری متفاوت برای هر بخش از اقتصاد. روندی که از ۲۰۲۳ آغاز شد در سال پیش رو قدرت میگیرد و بسیاری از جزئیات دستور اجرایی بایدن به قانون تبدیل میشوند. همچنین صحبتهای زیادی درمورد موسسه امنیت هوش مصنوعی آمریکا به گوش میرسد که احتمالا مسئول اجرای بیشتر این سیاستها است.
از نگاه کنگره اما هنوز مسیر مشخصی را شاهد نیستیم. چاک شومر، رهبر اکثریت سنا، میگوید قوانین جدیدی به دستور اجرایی اضافه میشوند. تا همین امروز هم چندین قانون پیشنهادی برای جوانب مختلف AI مثل شفافیت، دیپفیکها و مسئولیتپذیری پلتفرم ارائه شده است اما مشخص نیست کدام یکی از این پیشنهادات به تصویب میرسند و آیا اصلا قانونی در سال جدید تصویب خواهد شد.
آنچه میتوان انتظارش را داشت رویکردی است که انواع و کاربردهای مختلف هوش مصنوعی را براساس میزان خطر دستهبندی میکند. رویکردی شبیه به قانون هوش مصنوعی اتحادیه اروپا. کریس مسرول، رئیس Frontier Model Forum، از نهادهای لابی صنعتی میگوید موسسه ملی استانداردها و فناوری چارچوبی را در این حوزه پیشنهاد کرده که هر بخش و آژانس باید آن را به اجرا بگذارد.
مسئله روشن دیگری نیز وجود دارد: انتخابات سال ۲۰۲۴ ایالات متحده احتمالا رنگ و بوی مقررات هوش مصنوعی را مشخص میکند. با توجه به تاثیر هوش مصنوعی مولد بر پلتفرمهای شبکه اجتماعی و اطلاعات وارونه، میتوان بحثهایی را پیرامون نحوه جلوگیری از تاثیر و خطرات این تکنولوژی در مناظرههای انتخاباتی انتظار داشت.
اروپا
اتحادیه اروپا به تازگی روی قانون هوش مصنوعی، اولین قانون کامل AI در جهان، به توافق رسید. پس از بحث داغ و توافق رسمی کشورهای اروپایی و پارلمان اتحادیه اروپا در نیمه اول سال ۲۰۲۴، این قانون به زودی در دست اجرا قرار میگیرد. در خوشبینانهترین حالت، ممنوعیت یک سری کاربردهای هوش مصنوعی را باید تا پایان سال جاری انتظار داشت. درنتیجه صنعت هوش مصنوعی در سال ۲۰۲۴ باید خود را برای مقررات جدید آماده کند. اگرچه بیشتر اپلیکیشنهای هوش مصنوعی از این قانون تاثیر نمیپذیرند اما شرکتهای ارائه دهنده مدلها و اپلیکیشنهای بنیادی به عنوان عاملی «پرخطر» برای حقوق اساسی قملداد میشوند و مواردی که در بخشهای آموزش، درمان و پلیس استفاده میشوند باید استانداردهای اتحادیه اروپا را رعایت کنند. در اروپا، پلیس نمیتواند در مکانهای عمومی، مگر با تایید دادگاه برای اهداف خاصی مثل تروریسم، جلوگیری از قاچاق انسان یا پیدا کردن فردی گم شده، از هوش مصنوعی استفاده کند.
کاربرداهی دیگر هوش مصنوعی مثل ایجاد پایگاههای داده تشخیص چهرهای شبیه به Clearview AI یا استفاده از تکنولوژی تشخیص احساس در محل کار یا مدارس به طور کامل در اروپا ممنوع میشوند. قانون هوش مصنوعی اتحادیه اروپا شرکتها را به شفافسازی درمورد نحوه توسعه مدلها ملزم میکند و آنهایی که از سیستمهای پرخطر هوش مصنوعی استفاده میکنند مسئولیت بیشتری در قبال آسیبهای ناشی از آن خواهند داشت. شرکتهای توسعه دهنده مدلهای بنیادی، محصولاتی مثل GPT-4 که دیگر ابزارها براساس آنها ساخته میشوند، باید در بازه یک سال پس از اجرایی شدن این قانون از مقررات جدید پیروی کنند. دیگر شرکتهای تکنولوژی دو سال برای پیروی از قوانین زمان دارند. شرکتهای هوش مصنوعی برای پیروی از قوانین باید توجه بیشتری به نحوه ساخت سیستمها داشته باشند و مستندات دقیقی برای بازبینی تهیه کنند. این قانون شرکتها را ملزم میکند تا شفافیت بیشتری درمورد نحوه آموزش مدلها ارائه کنند و اطمینان حاصل شود که سیستمهای پرخطر هوش مصنوعی برای به حداقل رساندن موضوعاتی مثل سوگیری، به اندازه کافی براساس دادههای فراگیر آموزش دیده و آزمایش شوند. اتحادیه اروپا بر این باور است که بیشتر مدلهای قدرتمند هوش مصنوعی از جمله GPT-4 از اوپنایآی و Gemini از گوگل، ممکن است خطری «سیستماتیک» را برای شهروندان به دنبال داشته باشند و درنتیجه باید بیشتر برای پیروی از استانداردهای اتحادیه اروپا تلاش کنند. شرکتها باید برای ارزیابی و جلوگیری از خطرات تدابیری را در نظر گرفته و امنیت سیستمها را تضمین کنند. همچنین این شرکتها باید رخدادهای جدی را گزارش داده و جزئیاتی از مصرف انرژی خود را گزارش کنند. وظیفه ارزیابی سیستمها و تشخیص اینکه آیا مدل آنها در این دسته قرار میگیرد یا خیر بر عهده شرکتها است.
تیتر خبرها
تیترهای روزنامه