چرا جهان به دنبال کنار گذاشتن مدلهای هوش مصنوعی آمریکایی است؟
نیاز کشورهای جهان به مدلها و سامانههای بومی نظارت بر محتوا
آیلین گو، پژوهشگر ارشد وبگاه MIT Technology Review، در یادداشتی کوتاه با ذکر نقلقولهایی از پژوهشگران و مدیران حوزه فناوری کشورهای مختلف به پیامدهای رویکرد جدید دولت آمریکا در حوزه فناوری و واکنش کشورهای دیگر به آن پرداخته است: چند هفته پیش، وقتی در کنفرانس حقوق دیجیتال «RightsCon» در تایوان بودم، از نزدیک شاهد بودم که سازمانهای جامعه مدنی از سراسر جهان، از جمله ایالاتمتحده، چگونه با از دست دادن یکی از بزرگترین حامیان مالی فعالیتهای جهانی در حوزه حقوق دیجیتال، یعنی دولت آمریکا، دست و پنجه نرم میکردند. برچیدن ناگهانی و بیسابقه بخشهایی از ساختار دولت آمریکا توسط ترامپ و حرکت آن به سمت چیزی که برخی از دانشمندان برجسته علوم سیاسی آن را «اقتدارگرایی رقابتی» مینامند، بر عملکرد و سیاستهای شرکتهای فناوری آمریکایی نیز تأثیر گذاشته است؛ شرکتهایی که بسیاری از آنها کاربرانی بسیار فراتر از مرزهای ایالاتمتحده دارند. شرکتکنندگان در کنفرانس «RightsCon» معتقد بودند هماکنون شاهد تغییراتی در تمایل این شرکتها برای تعامل و سرمایهگذاری در جوامعی هستند که تعداد کاربرانشان کمتر است. به ویژه جوامعی که به زبانهایی غیر از انگلیسی صحبت میکنند.
به گزارش زاویه، برخی سیاستگذاران و رهبران کسبوکار، بهویژه در اروپا در حال بازنگری در میزان اتکای خود به فناوریهای آمریکایی هستند و این پرسش را مطرح میکنند که آیا میتوانند بهسرعت گزینههای فناورانه داخلی و بهتری ایجاد کنند. این مسئله بهطور خاص در مورد هوش مصنوعی مطرح میشود. یکی از روشنترین نمونههای این دغدغه در میان پژوهشگران و سیاستگذاران را میتوان در شبکههای اجتماعی مشاهده کرد. یاسمین کورزی، استاد حقوق اهل برزیل که در حوزه سیاستگذاری فناوری تحقیق میکند، اینگونه توضیح داد: «از زمان دولت دوم ترامپ، دیگر نمیتوانیم روی پلتفرمهای اجتماعی آمریکایی حتی برای انجام حداقلهای ممکن حساب کنیم.» از سوی دیگر، گزارشها حاکی از آن است که سامانههای نظارت بر محتوای شبکههای اجتماعی که در حال حاضر از ابزارهای خودکار استفاده میکنند و در حال آزمایش بهکارگیری مدلهای زبانی بزرگ برای شناسایی پستهای آسیبزا یا نامناسب هستند، در تشخیص محتوای مضر در کشورهایی همچون هند، آفریقای جنوبی و برزیل ناکام ماندهاند.
مارلنا ویسنیاک، وکیل فعال در حوزه حقوق بشر و متخصص حکمرانی هوش مصنوعی در مرکز اروپایی حقوق سازمانهای غیرانتفاعی (ECNL) در اینباره گفت: «اگر پلتفرمها بیشتر به مدلهای زبانی بزرگ برای نظارت بر محتوا تکیه کنند، احتمالا این مشکل تشدید خواهد شد. مدلهای زبانی بزرگ بهدرستی نظارت نمیشوند و بعد همین مدلهای نظارتنشده برای نظارت بر سایر محتواها نیز استفاده میشوند.» وی همچنین افزود: «این فرآیند کاملا دوری است و اشتباهات مدام بزرگتر و تکرار میشوند.» به عقیده کارشناسان، بخشی از مشکل این است که سامانههای هوشمند نظارت بر محتوای مضر بیشتر بر پایه دادههایی آموزش دیدهاند که از جهان انگلیسیزبان و بهطور خاص آمریکا به دست آمدهاند و درنتیجه، در مواجهه با زبانها و بسترهای محلی عملکرد ضعیفتری دارند. حتی مدلهای هوش مصنوعی چندزبانه که برای پردازش زبانهای متنوع طراحی شدهاند نیز همچنان در مواجهه با زبانهای غیرغربی عملکرد ضعیفی دارند. برای مثال، در یک ارزیابی از پاسخهای «ChatGPT» به پرسشهای مرتبط با حوزه سلامت، مشخص شد که نتایج در زبانهای چینی و هندی که در مجموعه دادههای آمریکای شمالی کمتر نمایان هستند؛ به مراتب ضعیفتر از انگلیسی و اسپانیایی بودهاند. برای بسیاری از شرکتکنندگان در کنفرانس «RightsCon»، این مسئله تأییدی بود بر درخواستهایشان برای استفاده بیشتر از رویکردهای مبتنی بر مشارکت جوامع محلی و کاربران چه در بستر شبکههای اجتماعی و چه فراتر از آن. رویکردهای پیشنهادی میتوانند شامل استفاده از مدلهای زبانی کوچکتر، چتباتها و مجموعهدادههایی باشند که برای کاربردهای خاص و متناسب با زبانها و بسترهای فرهنگی خاص طراحی شدهاند.
چنین سامانههایی میتوانند آموزش ببینند تا مواردی مانند اصطلاحات عامیانه و توهینآمیز را تشخیص دهند، عباراتی را که به ترکیبی از زبانها یا حتی الفباهای مختلف نوشتهشدهاند را تفسیر کنند و همچنین «زبانهای بازپسگرفتهشده» را شناسایی نمایند.
تمام این موارد معمولا توسط مدلهای زبانی و سامانههای خودکاری که عمدتا بر پایه انگلیسی آمریکایی آموزشدیدهاند؛ نادیده گرفته یا بهاشتباه طبقهبندی میشوند. برای نمونه، بنیانگذار استارتآپ «Shhor AI» در یکی از پنلهای کنفرانس مذکور درباره رابط برنامهنویسی جدید این شرکت برای نظارت بر محتوا به زبانهای بومی هند صحبت کرد.
از سوی دیگر، به جز سیاستهای دولت ترامپ، عوامل دیگری نیز در این میان نقش تعیینکننده دارند. نخست آن که پژوهشها و پیشرفتهای اخیر در زمینه مدلهای زبانی به نقطهای رسیدهاند که اندازه مجموعهداده دیگر شاخص تعیینکنندهای برای عملکرد مدلها محسوب نمیشود و این یعنی افراد بیشتری میتوانند چنین مدلهایی را توسعه دهند.
در همین رابطه، عالیه بهاتیا، پژوهشگر مهمان در مرکز دموکراسی و فناوری که در زمینه نظارت خودکار بر محتوا تحقیق میکند، معتقد است: «مدلهای زبانی کوچک ممکن است رقبای شایستهای برای مدلهای چندزبانه در زبانهای خاص و کممنبع باشند.»
عامل دیگر، چشمانداز جهانی رقابت در حوزه هوش مصنوعی به شمار میرود. رقابت در این عرصه یکی از محورهای اصلی نشست اقدام هوش مصنوعی پاریس بود که درست یک هفته پیش از برگزاری کنفرانس «RightsCon» برگزار شد. از آن زمان تاکنون، پیوسته شاهد اعلام ابتکاراتی تحت عنوان «هوش مصنوعی حاکمیتی» (Sovereign AI) بودهایم؛ طرحهایی که هدف آنها این است که یک کشور (یا سازمان) کنترل کامل بر تمامی جنبههای توسعه هوش مصنوعی، از جمله داده، زیرساخت، مدلها و سیاستگذاری را در اختیار داشته باشد. حاکمیت هوش مصنوعی تنها بخشی از تمایل گستردهتر بهسوی «حاکمیت فناوری» است؛ جریانی که روزبهروز قدرتمندتر میشود و ریشه در نگرانیهای عمیق درباره حریم خصوصی و امنیت دادههایی دارد که به آمریکا منتقل میشوند. اتحادیه اروپا در ماه نوامبر ماه گذشته، نخستین مسئول کمیسیون خود را در حوزه حاکمیت فناوری، امنیت و دموکراسی منصوب کرد و از آن زمان در حال تدوین طرحی برای ایجاد زیرساختی موسوم به «Euro Stack»یا «زیرساخت عمومی دیجیتال اروپایی» است. تعریف دقیق این مفهوم هنوز در حال شکلگیری است، اما میتواند شامل حوزههایی نظیر انرژی، آب، تراشهها، خدمات ابری، نرمافزار، داده و هوش مصنوعی باشد. همه آنچه برای پشتیبانی از جامعه مدرن و نوآوریهای آینده لازم است. در حال حاضر، بخش عمده این زیرساختها توسط شرکتهای فناوری آمریکایی تأمین میشوند. به عقیده کارشناسان، تلاشهای اروپا تا حدی از «India Stack» الهام گرفته است؛ زیرساخت دیجیتال هند که شامل سامانه هویت بیومتریک آدهار نیز میشود. این رویکرد در مقیاس ملی نیز به صورت جدی از سوی دولتها در حال پیگیری است. تنها در هفته گذشته، قانونگذاران هلندی چندین طرح جدید تصویب کردند که هدف آنها کاهش وابستگی این کشور به ارائهدهندگان فناوری آمریکایی بود. درنهایت، همه این موارد با آنچه اندی ین، مدیرعامل «Proton»، یک شرکت سوئیسی فعال در حوزه حریم خصوصی دیجیتال در کنفرانس «RightsCon» گفت، کاملا همراستا است: «ترامپ باعث شده که اروپا سریعتر حرکت کند… و به این درک برسد که باید حاکمیت فناوری خود را بازپس گیرد.»
به اعتقاد ین، شتاب گرفتن اروپا در زمینه استقلال فناورانه تا حدی ناشی از نفوذ قدرت رئیسجمهور آمریکا بر مدیران عامل شرکتهای فناوری و درک این واقعیت است که آینده رشد اقتصادی هر کشوری با توسه فناوری پیوندی عمیق دارد.
به گزارش زاویه، برخی سیاستگذاران و رهبران کسبوکار، بهویژه در اروپا در حال بازنگری در میزان اتکای خود به فناوریهای آمریکایی هستند و این پرسش را مطرح میکنند که آیا میتوانند بهسرعت گزینههای فناورانه داخلی و بهتری ایجاد کنند. این مسئله بهطور خاص در مورد هوش مصنوعی مطرح میشود. یکی از روشنترین نمونههای این دغدغه در میان پژوهشگران و سیاستگذاران را میتوان در شبکههای اجتماعی مشاهده کرد. یاسمین کورزی، استاد حقوق اهل برزیل که در حوزه سیاستگذاری فناوری تحقیق میکند، اینگونه توضیح داد: «از زمان دولت دوم ترامپ، دیگر نمیتوانیم روی پلتفرمهای اجتماعی آمریکایی حتی برای انجام حداقلهای ممکن حساب کنیم.» از سوی دیگر، گزارشها حاکی از آن است که سامانههای نظارت بر محتوای شبکههای اجتماعی که در حال حاضر از ابزارهای خودکار استفاده میکنند و در حال آزمایش بهکارگیری مدلهای زبانی بزرگ برای شناسایی پستهای آسیبزا یا نامناسب هستند، در تشخیص محتوای مضر در کشورهایی همچون هند، آفریقای جنوبی و برزیل ناکام ماندهاند.
مارلنا ویسنیاک، وکیل فعال در حوزه حقوق بشر و متخصص حکمرانی هوش مصنوعی در مرکز اروپایی حقوق سازمانهای غیرانتفاعی (ECNL) در اینباره گفت: «اگر پلتفرمها بیشتر به مدلهای زبانی بزرگ برای نظارت بر محتوا تکیه کنند، احتمالا این مشکل تشدید خواهد شد. مدلهای زبانی بزرگ بهدرستی نظارت نمیشوند و بعد همین مدلهای نظارتنشده برای نظارت بر سایر محتواها نیز استفاده میشوند.» وی همچنین افزود: «این فرآیند کاملا دوری است و اشتباهات مدام بزرگتر و تکرار میشوند.» به عقیده کارشناسان، بخشی از مشکل این است که سامانههای هوشمند نظارت بر محتوای مضر بیشتر بر پایه دادههایی آموزش دیدهاند که از جهان انگلیسیزبان و بهطور خاص آمریکا به دست آمدهاند و درنتیجه، در مواجهه با زبانها و بسترهای محلی عملکرد ضعیفتری دارند. حتی مدلهای هوش مصنوعی چندزبانه که برای پردازش زبانهای متنوع طراحی شدهاند نیز همچنان در مواجهه با زبانهای غیرغربی عملکرد ضعیفی دارند. برای مثال، در یک ارزیابی از پاسخهای «ChatGPT» به پرسشهای مرتبط با حوزه سلامت، مشخص شد که نتایج در زبانهای چینی و هندی که در مجموعه دادههای آمریکای شمالی کمتر نمایان هستند؛ به مراتب ضعیفتر از انگلیسی و اسپانیایی بودهاند. برای بسیاری از شرکتکنندگان در کنفرانس «RightsCon»، این مسئله تأییدی بود بر درخواستهایشان برای استفاده بیشتر از رویکردهای مبتنی بر مشارکت جوامع محلی و کاربران چه در بستر شبکههای اجتماعی و چه فراتر از آن. رویکردهای پیشنهادی میتوانند شامل استفاده از مدلهای زبانی کوچکتر، چتباتها و مجموعهدادههایی باشند که برای کاربردهای خاص و متناسب با زبانها و بسترهای فرهنگی خاص طراحی شدهاند.
چنین سامانههایی میتوانند آموزش ببینند تا مواردی مانند اصطلاحات عامیانه و توهینآمیز را تشخیص دهند، عباراتی را که به ترکیبی از زبانها یا حتی الفباهای مختلف نوشتهشدهاند را تفسیر کنند و همچنین «زبانهای بازپسگرفتهشده» را شناسایی نمایند.
تمام این موارد معمولا توسط مدلهای زبانی و سامانههای خودکاری که عمدتا بر پایه انگلیسی آمریکایی آموزشدیدهاند؛ نادیده گرفته یا بهاشتباه طبقهبندی میشوند. برای نمونه، بنیانگذار استارتآپ «Shhor AI» در یکی از پنلهای کنفرانس مذکور درباره رابط برنامهنویسی جدید این شرکت برای نظارت بر محتوا به زبانهای بومی هند صحبت کرد.
از سوی دیگر، به جز سیاستهای دولت ترامپ، عوامل دیگری نیز در این میان نقش تعیینکننده دارند. نخست آن که پژوهشها و پیشرفتهای اخیر در زمینه مدلهای زبانی به نقطهای رسیدهاند که اندازه مجموعهداده دیگر شاخص تعیینکنندهای برای عملکرد مدلها محسوب نمیشود و این یعنی افراد بیشتری میتوانند چنین مدلهایی را توسعه دهند.
در همین رابطه، عالیه بهاتیا، پژوهشگر مهمان در مرکز دموکراسی و فناوری که در زمینه نظارت خودکار بر محتوا تحقیق میکند، معتقد است: «مدلهای زبانی کوچک ممکن است رقبای شایستهای برای مدلهای چندزبانه در زبانهای خاص و کممنبع باشند.»
عامل دیگر، چشمانداز جهانی رقابت در حوزه هوش مصنوعی به شمار میرود. رقابت در این عرصه یکی از محورهای اصلی نشست اقدام هوش مصنوعی پاریس بود که درست یک هفته پیش از برگزاری کنفرانس «RightsCon» برگزار شد. از آن زمان تاکنون، پیوسته شاهد اعلام ابتکاراتی تحت عنوان «هوش مصنوعی حاکمیتی» (Sovereign AI) بودهایم؛ طرحهایی که هدف آنها این است که یک کشور (یا سازمان) کنترل کامل بر تمامی جنبههای توسعه هوش مصنوعی، از جمله داده، زیرساخت، مدلها و سیاستگذاری را در اختیار داشته باشد. حاکمیت هوش مصنوعی تنها بخشی از تمایل گستردهتر بهسوی «حاکمیت فناوری» است؛ جریانی که روزبهروز قدرتمندتر میشود و ریشه در نگرانیهای عمیق درباره حریم خصوصی و امنیت دادههایی دارد که به آمریکا منتقل میشوند. اتحادیه اروپا در ماه نوامبر ماه گذشته، نخستین مسئول کمیسیون خود را در حوزه حاکمیت فناوری، امنیت و دموکراسی منصوب کرد و از آن زمان در حال تدوین طرحی برای ایجاد زیرساختی موسوم به «Euro Stack»یا «زیرساخت عمومی دیجیتال اروپایی» است. تعریف دقیق این مفهوم هنوز در حال شکلگیری است، اما میتواند شامل حوزههایی نظیر انرژی، آب، تراشهها، خدمات ابری، نرمافزار، داده و هوش مصنوعی باشد. همه آنچه برای پشتیبانی از جامعه مدرن و نوآوریهای آینده لازم است. در حال حاضر، بخش عمده این زیرساختها توسط شرکتهای فناوری آمریکایی تأمین میشوند. به عقیده کارشناسان، تلاشهای اروپا تا حدی از «India Stack» الهام گرفته است؛ زیرساخت دیجیتال هند که شامل سامانه هویت بیومتریک آدهار نیز میشود. این رویکرد در مقیاس ملی نیز به صورت جدی از سوی دولتها در حال پیگیری است. تنها در هفته گذشته، قانونگذاران هلندی چندین طرح جدید تصویب کردند که هدف آنها کاهش وابستگی این کشور به ارائهدهندگان فناوری آمریکایی بود. درنهایت، همه این موارد با آنچه اندی ین، مدیرعامل «Proton»، یک شرکت سوئیسی فعال در حوزه حریم خصوصی دیجیتال در کنفرانس «RightsCon» گفت، کاملا همراستا است: «ترامپ باعث شده که اروپا سریعتر حرکت کند… و به این درک برسد که باید حاکمیت فناوری خود را بازپس گیرد.»
به اعتقاد ین، شتاب گرفتن اروپا در زمینه استقلال فناورانه تا حدی ناشی از نفوذ قدرت رئیسجمهور آمریکا بر مدیران عامل شرکتهای فناوری و درک این واقعیت است که آینده رشد اقتصادی هر کشوری با توسه فناوری پیوندی عمیق دارد.
