چرا جهان به دنبال کنار گذاشتن مدل‌های هوش مصنوعی آمریکایی است؟
نیاز کشورهای جهان به مدل‌ها و سامانه‌های بومی نظارت بر محتوا

آیلین گو، پژوهشگر ارشد وبگاه MIT Technology Review، در یادداشتی کوتاه با ذکر نقل‌قول‌هایی از پژوهشگران و مدیران حوزه فناوری کشورهای مختلف به پیامدهای رویکرد جدید دولت آمریکا در حوزه فناوری و واکنش کشورهای دیگر به آن پرداخته است: چند هفته پیش، وقتی در کنفرانس حقوق دیجیتال «RightsCon» در تایوان بودم، از نزدیک شاهد بودم که سازمان‌های جامعه مدنی از سراسر جهان، از جمله ایالات‌متحده، چگونه با از دست دادن یکی از بزرگ‌ترین حامیان مالی فعالیت‌های جهانی در حوزه حقوق دیجیتال، یعنی دولت آمریکا، دست و پنجه نرم می‌کردند. برچیدن ناگهانی و بی‌سابقه بخش‌هایی از ساختار دولت آمریکا توسط ترامپ و حرکت آن به سمت چیزی که برخی از دانشمندان برجسته علوم سیاسی آن را «اقتدارگرایی رقابتی» می‌نامند، بر عملکرد و سیاست‌های شرکت‌های فناوری آمریکایی نیز تأثیر گذاشته است؛ شرکت‌هایی که بسیاری از آن‌ها کاربرانی بسیار فراتر از مرزهای ایالات‌متحده دارند. شرکت‌کنندگان در کنفرانس «RightsCon» معتقد بودند هم‌اکنون شاهد تغییراتی در تمایل این شرکت‌ها برای تعامل و سرمایه‌گذاری در جوامعی هستند که تعداد کاربرانشان کمتر است. به ویژه جوامعی که به زبان‌هایی غیر از انگلیسی صحبت می‌کنند.
به گزارش زاویه، برخی سیاست‌گذاران و رهبران کسب‌وکار، به‌ویژه در اروپا در حال بازنگری در میزان اتکای خود به فناوری‌های آمریکایی هستند و این پرسش را مطرح می‌کنند که آیا می‌توانند به‌سرعت گزینه‌های فناورانه داخلی و بهتری ایجاد کنند. این مسئله به‌طور خاص در مورد هوش مصنوعی مطرح می‌شود. یکی از روشن‌ترین نمونه‌های این دغدغه در میان پژوهشگران و سیاست‌گذاران را می‌توان در شبکه‌های اجتماعی مشاهده کرد. یاسمین کورزی، استاد حقوق اهل برزیل که در حوزه سیاست‌گذاری فناوری تحقیق می‌کند، این‌گونه توضیح داد: «از زمان دولت دوم ترامپ، دیگر نمی‌توانیم روی پلتفرم‌های اجتماعی آمریکایی حتی برای انجام حداقل‌های ممکن حساب کنیم.» از سوی دیگر، گزارش‌ها حاکی از آن است که سامانه‌های نظارت بر محتوای شبکه‌های اجتماعی که در حال حاضر از ابزارهای خودکار استفاده می‌کنند و در حال آزمایش به‌کارگیری مدل‌های زبانی بزرگ برای شناسایی پست‌های آسیب‌زا یا نامناسب هستند، در تشخیص محتوای مضر در کشورهایی همچون هند، آفریقای جنوبی و برزیل ناکام مانده‌اند.
مارلنا ویسنیاک، وکیل فعال در حوزه حقوق بشر و متخصص حکمرانی هوش مصنوعی در مرکز اروپایی حقوق سازمان‌های غیرانتفاعی (ECNL) در این‌باره گفت: «اگر پلتفرم‌ها بیشتر به  مدل‌های زبانی بزرگ برای نظارت بر محتوا تکیه کنند، احتمالا این مشکل تشدید خواهد شد. مدل‌های زبانی بزرگ به‌درستی نظارت نمی‌شوند و بعد همین مدل‌های نظارت‌نشده برای نظارت بر سایر محتواها نیز استفاده می‌شوند.» وی همچنین افزود: «این فرآیند کاملا دوری است و اشتباهات مدام بزرگ‌تر و تکرار می‌شوند.» به عقیده کارشناسان، بخشی از مشکل این است که سامانه‌های هوشمند نظارت بر محتوای مضر بیشتر بر پایه داده‌هایی آموزش دیده‌اند که از جهان انگلیسی‌زبان و به‌طور خاص آمریکا به دست آمده‌اند و درنتیجه، در مواجهه با زبان‌ها و بسترهای محلی عملکرد ضعیف‌تری دارند. حتی مدل‌های هوش مصنوعی چندزبانه که برای پردازش زبان‌های متنوع طراحی شده‌اند نیز همچنان در مواجهه با زبان‌های غیرغربی عملکرد ضعیفی دارند. برای مثال، در یک ارزیابی از پاسخ‌های «ChatGPT» به پرسش‌های مرتبط با حوزه سلامت، مشخص شد که نتایج در زبان‌های چینی و هندی که در مجموعه داده‌های آمریکای شمالی کمتر نمایان هستند؛ به مراتب ضعیف‌تر از انگلیسی و اسپانیایی بوده‌اند. برای بسیاری از شرکت‌کنندگان در کنفرانس «RightsCon»، این مسئله تأییدی بود بر درخواست‌هایشان برای استفاده بیشتر از رویکردهای مبتنی بر مشارکت جوامع محلی و کاربران چه در بستر شبکه‌های اجتماعی و چه فراتر از آن. رویکردهای پیشنهادی می‌توانند شامل استفاده از مدل‌های زبانی کوچک‌تر، چت‌بات‌ها و مجموعه‌داده‌هایی باشند که برای کاربردهای خاص و متناسب با زبان‌ها و بسترهای فرهنگی خاص طراحی شده‌اند.
چنین سامانه‌هایی می‌توانند آموزش ببینند تا مواردی مانند اصطلاحات عامیانه و توهین‌آمیز را تشخیص دهند، عباراتی را که به ترکیبی از زبان‌ها یا حتی الفباهای مختلف نوشته‌شده‌اند را تفسیر کنند و همچنین «زبان‌های بازپس‌گرفته‌شده» را شناسایی نمایند.
تمام این موارد معمولا توسط مدل‌های زبانی و سامانه‌های خودکاری که عمدتا بر پایه انگلیسی آمریکایی آموزش‌دیده‌اند؛ نادیده گرفته یا به‌اشتباه طبقه‌بندی می‌شوند. برای نمونه، بنیان‌گذار استارت‌آپ «Shhor AI» در یکی از پنل‌های کنفرانس مذکور درباره رابط برنامه‌نویسی جدید این شرکت برای نظارت بر محتوا به زبان‌های بومی هند صحبت کرد.
از سوی دیگر، به جز سیاست‌های دولت ترامپ، عوامل دیگری نیز در این میان نقش تعیین‌کننده دارند. نخست آن که پژوهش‌ها و پیشرفت‌های اخیر در زمینه مدل‌های زبانی به نقطه‌ای رسیده‌اند که اندازه مجموعه‌داده دیگر شاخص تعیین‌کننده‌ای برای عملکرد مدل‌ها محسوب نمی‌شود و این یعنی افراد بیشتری می‌توانند چنین مدل‌هایی را توسعه دهند.
در همین رابطه، عالیه بهاتیا، پژوهشگر مهمان در مرکز دموکراسی و فناوری که در زمینه نظارت خودکار بر محتوا تحقیق می‌کند، معتقد است: «مدل‌های زبانی کوچک ممکن است رقبای شایسته‌ای برای مدل‌های چندزبانه در زبان‌های خاص و کم‌منبع باشند.»
عامل دیگر، چشم‌انداز جهانی رقابت در حوزه هوش مصنوعی به شمار می‌رود. رقابت در این عرصه یکی از محورهای اصلی نشست اقدام هوش مصنوعی پاریس بود که درست یک هفته پیش از برگزاری کنفرانس «RightsCon» برگزار شد. از آن زمان تاکنون، پیوسته شاهد اعلام ابتکاراتی تحت عنوان «هوش مصنوعی حاکمیتی» (Sovereign AI)  بوده‌ایم؛ طرح‌هایی که هدف آن‌ها این است که یک کشور (یا سازمان) کنترل کامل بر تمامی جنبه‌های توسعه هوش مصنوعی، از جمله داده، زیرساخت، مدل‌ها و سیاست‌گذاری را در اختیار داشته باشد. حاکمیت هوش مصنوعی تنها بخشی از تمایل گسترده‌تر به‌سوی «حاکمیت فناوری» است؛ جریانی که روزبه‌روز قدرتمندتر می‌شود و ریشه در نگرانی‌های عمیق درباره حریم خصوصی و امنیت داده‌هایی دارد که به آمریکا منتقل می‌شوند. اتحادیه اروپا در ماه نوامبر ماه گذشته، نخستین مسئول کمیسیون خود را در حوزه حاکمیت فناوری، امنیت و دموکراسی منصوب کرد و از آن زمان در حال تدوین طرحی برای ایجاد زیرساختی موسوم به «Euro Stack»یا «زیرساخت عمومی دیجیتال اروپایی» است. تعریف دقیق این مفهوم هنوز در حال شکل‌گیری است، اما می‌تواند شامل حوزه‌هایی نظیر انرژی، آب، تراشه‌ها، خدمات ابری، نرم‌افزار، داده و هوش مصنوعی باشد. همه آنچه برای پشتیبانی از جامعه مدرن و نوآوری‌های آینده لازم است. در حال حاضر، بخش عمده این زیرساخت‌ها توسط شرکت‌های فناوری آمریکایی تأمین می‌شوند. به عقیده کارشناسان، تلاش‌های اروپا تا حدی از «India Stack» الهام گرفته است؛ زیرساخت دیجیتال هند که شامل سامانه هویت بیومتریک آدهار  نیز می‌شود. این رویکرد در مقیاس ملی نیز به صورت جدی از سوی دولت‌ها در حال پیگیری است. تنها در هفته گذشته، قانون‌گذاران هلندی چندین طرح جدید تصویب کردند که هدف آن‌ها کاهش وابستگی این کشور به ارائه‌دهندگان فناوری آمریکایی بود. درنهایت، همه این موارد با آنچه اندی ین، مدیرعامل «Proton»، یک شرکت سوئیسی فعال در حوزه حریم خصوصی دیجیتال در کنفرانس «RightsCon» گفت، کاملا هم‌راستا است: «ترامپ باعث شده که اروپا سریع‌تر حرکت کند… و به این درک برسد که باید حاکمیت فناوری خود را بازپس گیرد.»
به اعتقاد ین، شتاب گرفتن اروپا در زمینه استقلال فناورانه تا حدی ناشی از نفوذ قدرت رئیس‌جمهور آمریکا بر مدیران عامل شرکت‌های فناوری و درک این واقعیت است که آینده رشد اقتصادی هر کشوری با توسه فناوری پیوندی عمیق دارد.