نگاهی به تنظیم‌گری هوش مصنوعی در 2024

سالی که گذشت هوش مصنوعی از یک حوزه بکر قانون‌گذاری به تیتر اول اخبار تبدیل شد. این جهش را تا حدی مدیون ChatGPT و فراگیر شدن آن هستیم که باعث شد مردم هم با توانایی‌ها و محدودیت‌های هوش مصنوعی بیشتر آشنا شوند. در بحث سیاست‌گذاری نیز سال مهمی را پشت سر گذاشتیم: اول از همه اتحادیه اروپا روی قانون مهم هوش مصنوعی به توافق رسید، جلسات سنای آمریکا و دستور اجرایی رئیس جمهور این کشور را شاهد بودیم و چین هم مقررات خاصی را برای چیزهایی مثل الگوریتم‌های پیشنهاد‌دهنده در نظر گرفت. اگر سال ۲۰۲۳ را سال توافق قانون‌گذاران روی یک چشم‌انداز بدانیم، ۲۰۲۴ سالی است که سیاست‌ها به اقدام تبدیل می‌شوند. در ادامه این مطلب انتظارات مجله MIT Technology Review از آینده قانون‌گذاری هوش مصنوعی در سال پیش رو را مطالعه می‌کنید.
  ایالات متحده
به گزارش پیوست، هوش مصنوعی در سال ۲۰۲۳ به مباحث سیاسی ایالات متحده ورود کرد و چیزی فراتر از بحث مذاکره را نیز مشاهده کردیم. اقداماتی را هم در قالب دستور اجرایی بایدن در اواخر ماه اکتبر پس از درخواست روز افزون برای شفافیت بیشتر و استاندارد‌های جدید شاهد بودیم. با این اقدام، رایحه‌ای از سیاست هوش مصنوعی ایالات متحده را مشاهده کردیم: سیاستی دوست‌دار صنعت هوش مصنوعی با تاکید بر بهترین عملکرد‌ها، اتکا بر آژانس‌های مختلف برای تنظیم‌گری و قانون‌گذاری متفاوت برای هر بخش از اقتصاد. روندی که از ۲۰۲۳ آغاز شد در سال پیش رو قدرت می‌گیرد و بسیاری از جزئیات دستور اجرایی بایدن به قانون تبدیل می‌شوند. همچنین صحبت‌های زیادی درمورد موسسه امنیت هوش مصنوعی آمریکا به گوش می‌رسد که احتمالا مسئول اجرای بیشتر این سیاست‌ها است.
از نگاه کنگره اما هنوز مسیر مشخصی را شاهد نیستیم. چاک شومر، رهبر اکثریت سنا، می‌گوید قوانین جدیدی به دستور اجرایی اضافه می‌شوند. تا همین امروز هم چندین قانون پیشنهادی برای جوانب مختلف AI مثل شفافیت، دیپ‌فیک‌ها و مسئولیت‌پذیری پلتفرم ارائه شده است اما مشخص نیست کدام یکی از این پیشنهادات به تصویب می‌رسند و آیا اصلا قانونی در سال جدید تصویب خواهد شد.
آنچه می‌توان انتظارش را داشت رویکردی است که انواع و کاربرد‌های مختلف هوش مصنوعی را براساس میزان خطر دسته‌بندی می‌کند. رویکردی شبیه به قانون هوش مصنوعی اتحادیه اروپا. کریس مسرول، رئیس Frontier Model Forum، از نهاد‌های لابی صنعتی می‌گوید موسسه ملی استاندارد‌ها و فناوری چارچوبی را در این حوزه پیشنهاد کرده که هر بخش و آژانس باید آن را به اجرا بگذارد.
مسئله روشن دیگری نیز وجود دارد: انتخابات سال ۲۰۲۴ ایالات متحده احتمالا رنگ و بوی مقررات هوش مصنوعی را مشخص می‌کند. با توجه به تاثیر هوش مصنوعی مولد بر پلتفرم‌های شبکه اجتماعی و اطلاعات وارونه، می‌توان بحث‌هایی را پیرامون نحوه جلوگیری از تاثیر و خطرات این تکنولوژی در مناظره‌های انتخاباتی انتظار داشت.
  اروپا
اتحادیه اروپا به تازگی روی قانون هوش مصنوعی، اولین قانون کامل AI در جهان، به توافق رسید. پس از بحث داغ و توافق رسمی کشور‌های اروپایی و پارلمان اتحادیه اروپا در نیمه اول سال ۲۰۲۴، این قانون به زودی در دست اجرا قرار می‌گیرد. در خوش‌بینانه‌ترین حالت، ممنوعیت یک سری کاربرد‌های هوش مصنوعی را باید تا پایان سال جاری انتظار داشت. درنتیجه صنعت هوش مصنوعی در سال ۲۰۲۴ باید خود را برای مقررات جدید آماده کند. اگرچه بیشتر اپلیکیشن‌های هوش مصنوعی از این قانون تاثیر نمی‌پذیرند اما شرکت‌های ارائه دهنده مدل‌ها و اپلیکیشن‌های بنیادی به عنوان عاملی «پرخطر» برای حقوق اساسی قملداد می‌شوند و مواردی که در بخش‌های آموزش، درمان و پلیس استفاده می‌شوند باید استاندارد‌های اتحادیه اروپا را رعایت کنند. در اروپا، پلیس نمی‌تواند در مکان‌های عمومی، مگر با تایید دادگاه برای اهداف خاصی مثل تروریسم، جلوگیری از قاچاق انسان یا پیدا کردن فردی گم شده، از هوش مصنوعی استفاده کند.
کاربرد‌اهی دیگر هوش مصنوعی مثل ایجاد پایگاه‌های داده تشخیص چهره‌ای شبیه به Clearview AI یا استفاده از تکنولوژی تشخیص احساس در محل کار یا مدارس به طور کامل در اروپا ممنوع می‌شوند. قانون هوش مصنوعی اتحادیه اروپا شرکت‌ها را به شفاف‌سازی درمورد نحوه توسعه مدل‌ها ملزم می‌کند و آنهایی که از سیستم‌های پرخطر هوش مصنوعی استفاده می‌کنند مسئولیت بیشتری در قبال آسیب‌های ناشی از آن خواهند داشت. شرکت‌های توسعه دهنده مدل‌های بنیادی، محصولاتی مثل GPT-4 که دیگر ابزارها براساس آنها ساخته می‌شوند، باید در بازه یک سال پس از اجرایی شدن این قانون از مقررات جدید پیروی کنند. دیگر شرکت‌های تکنولوژی دو سال برای پیروی از قوانین زمان دارند. شرکت‌های هوش مصنوعی برای پیروی از قوانین باید توجه بیشتری به نحوه ساخت‌ سیستم‌ها داشته باشند و مستندات دقیقی برای بازبینی تهیه کنند. این قانون شرکت‌ها را ملزم می‌کند تا شفافیت بیشتری درمورد نحوه آموزش مدل‌ها ارائه کنند و اطمینان حاصل شود که سیستم‌های پرخطر هوش مصنوعی برای به حداقل رساندن موضوعاتی مثل سوگیری، به اندازه کافی براساس داده‌های فراگیر آموزش دیده و آزمایش شوند. اتحادیه اروپا بر این باور است که بیشتر مدل‌های قدرتمند هوش مصنوعی از جمله GPT-4 از اوپن‌ای‌آی و Gemini از گوگل، ممکن است خطری «سیستماتیک» را برای شهروندان به دنبال داشته باشند و درنتیجه باید بیشتر برای پیروی از استاندارد‌های اتحادیه اروپا تلاش کنند. شرکت‌ها باید برای ارزیابی و جلوگیری از خطرات تدابیری را در نظر گرفته و امنیت سیستم‌ها را تضمین کنند. همچنین این شرکت‌ها باید رخداد‌های جدی را گزارش داده و جزئیاتی از مصرف انرژی خود را گزارش کنند. وظیفه ارزیابی سیستم‌ها و تشخیص اینکه آیا مدل‌ آنها در این دسته قرار می‌گیرد یا خیر بر عهده شرکت‌ها است.