دیدگاههای جان اچ. کاکرین، اقتصاددان مشهور آمریکایی درباره
هوش مصنوعی هوش مصنوعی، جامعه و دموکراسی
جان هولاند کاکرین، اقتصاددان مشهور آمریکایی، اخیراً با انتشار مقالهای در وب سایت شخصی خود به تأثیرات هوش مصنوعی و مقررات آن بر دموکراسی و جامعه پرداخته است. وی در این نوشتار کوتاه ادعا میکند که قوانین و مقررات هرگز نتوانستهاند به صورت کامل بیماریهای اجتماعی، سیاسی و اقتصادی ناشی از ظهور فناوریهای جدید را شناسایی و از بروز آنها پیشگیری کنند؛ هوش مصنوعی نیز از این قاعده مستثنی نیست. به اعتقاد او، مقررات هوش مصنوعی نسبت به خود هوش مصنوعی، تهدیدی بزرگتر برای دموکراسی محسوب میشود، زیرا دولتها از مقررات به عنوان ابزاری برای سانسور اطلاعات استفاده میکنند. کاکرین باور دارد که رقابت آزاد در جامعه مدنی، رسانهها و دانشگاهها، همانگونه که در انقلابهای فناورانه پیشین عمل کرد، آثار منفی هوش مصنوعی را نیز برطرف خواهد نمود و نیازی به مقررات پیشگیرانه و سختگیرانه در این حوزه وجود ندارد. رسانه زاویه در این یادداشت به مرور دیدگاههای ارائه شده از سوی کاکرین پرداخته است:
در طول قرنها نوآوری، از اختراع چاپ متحرک تا توییتر از موتور بخار تا هواپیما، از مزرعه تا کارخانه و برجهای اداری، از کشاورزی تا تولید و سپس ارائه خدمات، از زالو درمانی و خونگیری تا درمان سرطان و از چرتکه تا ماشینحساب، پردازشگر متن، رایانهها، اینترنت و رسانههای اجتماعی، هیچکس نتوانسته است نتایج واقعی و بهویژه پیامدهای اجتماعی و سیاسی فناوریهای جدید را پیشبینی کند.
حتی با بهرهگیری از تجربه تاریخی طولانی، آیا ما به یک اجماع تاریخی در مورد چگونگی تأثیر این نوآوریهای فناورانه بر تغییرات عمیق در جامعه و حکومت رسیدهایم؟ آیا انقلاب صنعتی دموکراسی را به پیش برد یا آن را تضعیف کرد؟
تاریخ پیشبینیهای آخرالزمانی مملو از نگرانیهایی است که بر مبنای آنها هر تحول جدید جامعه را نابود کرده و به استبداد منجر خواهد شد؛ نگرانیهایی که همیشه با درخواستهایی برای واکنشهای قهری بزرگ همراه هستند. این در حالی است که اغلب این پیشبینیها به طرز شگفتانگیزی اشتباه از آب در آمدند.
توماس مالتوس به شکلی منطقی پیشبینی کرد که نوآوریهای فناورانه اواخر قرن ۱۸ منجر به گرسنگی گسترده خواهد شد. پیشبینی او کاملاً اشتباه بود. مارکس تصور میکرد که صنعتی شدن لزوماً به فقر شدید پرولتاریا و کمونیسم منجر میشود. او نیز به طرز شگفتآوری اشتباه کرد. توسعه خودروها اخلاقیات را نابود نکردند. کتابهای مصور و تلویزیون نیز ذهن جوانان را از بین نبردند.
بله، فناوریهای جدید اغلب اثرات متلاطم، خطرات و پیامدهای اجتماعی یا سیاسی به همراه دارند. اما این پرسش در بحث ما مطرح نیست. آیا حتی یک مثال وجود دارد که جامعهای بتواند پیش از وقوع، یک فناوری جدید در حال توسعه را بهدرستی درک کند، اثرات اقتصادی آن را بشناسد (چه برسد به پیامدهای اجتماعی و سیاسی آن)، استفاده از آن را به شکلی سازنده «مقرراتگذاری» کند، از بروز پیامدهای منفی جلوگیری کند و در عین حال از مزایای آن فناوری محروم نشود؟
نمونههای بسیاری وجود دارد از جوامعی که به دلیل ترس بیش از حد از اثرات فناوریهای جدید، آنها را ممنوع یا با تأخیر مورد اسفاده قرار دادند و در نتیجه این سیاست، متحمل هزینههای سنگینی شدند. داستان ناوگان گنجینه چین یکی از این نمونههای کلاسیک است. در قرن ۱۵ میلادی، چین فناوری جدیدی در اختیار داشت. ناوگانی از کشتیهای عظیم، بسیار بزرگتر از نمونههایی که اروپاییها برای قرنها میتوانستند بسازند. این کشتیها حتی تا آفریقا سفر میکردند؛ اما در سال ۱۴۳۰، فرمانروایان چین، با پیشبینی تغییرات اجتماعی و سیاسی، و بهویژه «تهدید قدرتشان از جانب بازرگانان»، سفرهای اقیانوسی را ممنوع کردند. این ممنوعیت، چین را از حضور در تجارت جهانی بازداشت و به اروپاییها فرصت داد تا جایگزین آنان شوند.
وقتی از خود میپرسیم «خطرات هوش مصنوعی چیست؟»، یک بحث جذاب شکل میگیرد. اما اگر به جای آن بپرسیم «چه خطراتی برای اقتصاد، جامعه و دموکراسی ما وجود دارد؟»، مطمئناً جنگ متعارف یا هستهای قدرتهای بزرگ، شورشهای داخلی، فروپاشی نهادها و هنجارهای سیاسی ایالات متحده، بیماریهای همهگیر با نرخ مرگ و میر بالا، کاهش جمعیت، فروپاشی محیطزیست و پایان رشد اقتصادی، بر صفحه امتیازها پیشی گرفته و بالاتر از خطرات مبهم هوش مصنوعی قرار میگیرند. ما به احتمال زیاد اولین همهگیری جهانی را که ناشی از یک ویروس مهندسیشده انسانی بود، تجربه کردهایم. در طول شیوع کرونا مشخص شد که تحقیق در زمینه افزایش عملکرد ویروسها آن چیزی بود که نیاز به مقرراتگذاری داشت؛ به عبارت دیگر، ویروسهای دستکاریشده و نه محصولات غذایی تراریخته، خطر بیولوژیکی واقعی بودند.
من خطرات بالقوه هوش مصنوعی را انکار نمیکنم؛ اما نکته اساسی این است که ابزار پیشنهادی، یعنی مقرراتگذاری که توسط افرادی مانند ما هدایت میشود، هرگز نتواسته است خطرات اجتماعی، اقتصادی و سیاسی تغییرات فنی را تشخیص دهد یا اقدامی سازنده برای پیشگیری از آنها انجام دهد. این ابزار قطعاً اکنون نیز قادر به انجام این کار نخواهد بود. اندازه مشکل به هیچ وجه توجیهکننده استفاده از ابزارهای کاملاً بی اثر نیست.
در چنین شرایطی، حتی کمتر احتمال دارد که مقررات پیشگیرانه مؤثر واقع شوند. قبل از آن که حتی بدانیم هوش مصنوعی چه کاری میتواند انجام دهد و پیش از اینکه خطرات خود را آشکار کند، گفته میشود هوش مصنوعی تهدیدی اساسی است و نسخههای پیشرفتهتر «رباتها کنترل را به دست خواهند گرفت»؛ امری که نیاز به مقررات پیشگیرانه «ایمنی» دارد.
مفروضات مربوط به مقررات اغلب به صورت منفعلانه مطرح میشوند، مثلاً بدون پاسخ به این پرسش که «چه کسی باید مقررات را اعمال کند»، گفته میشود «هوش مصنوعی باید مقرراتگذاری شود». سوال اصلی این است که با تحلیل موفقیتها و شکستهای سیستمهای قانونگذار، تنظیمگر یا اجرایی در گذشته، آنها چه اقداماتی را میتوانند به شکل واقعبینانه انجام دهند. نهادهای تنظیمگر ما در گذشته چه کاری توانستهاند انجام دهند و عملکردشان چگونه بوده است؟
نهادهای تنظیمگر در گذشته به دلیل کندی، ناکارآمدی یا حتی در مواردی آسیب رسانی، مورد انتقاد قرار گرفتهاند. برای مثال نهادهای مذکور در صنایع مختلف مانند داروسازی، حوزه مالی یا حفاظت از محیطزیست معمولاً به جای آنکه به طور پیشگیرانه عمل کنند، تنها پس از بروز آسیبهای قابل توجه عمومی یا محیطی دست به اقدام زدهاند. ناتوانی در مقابله به موقع یا مواجهه افراطی در برخی موارد نشان میدهد که وابستگی صرف به مقررات برای مدیریت چالشهای فناوریهای نوظهوری مانند هوش مصنوعی سبب بروز محدودیت میشود.
مسئله اصلی در مقرراتگذاری هوش مصنوعی لزوم یا عدم لزوم وضع مقررات نیست، بلکه این است که آیا نهادهای موجود قادر به مقرراتگذاری مؤثر بر هوش مصنوعی بدون ایجاد محدودیت برای نوآوری هستند؟ شایستگی اساسی نهادهای تنظیمگر اکنون مورد تردید است. پس از شکست عظیم مقررات مالی در سالهای ۲۰۰۸ و ۲۰۲۱ و همچنین شکستهای آشکار نظام بهداشت عمومی ایالات متحده در سالهای ۲۰۲۰–۲۰۲۲، آیا واقعاً فکر میکنید این ابزارهای نهادی میتوانند با دقت، روند توسعه یکی از پرابهامترین و مهمترین فناوریهای قرن را هدایت کنند؟
این جمله که «تنظیمگری و قانونگذاری هوش مصنوعی تهدیدی برای دموکراسی محسوب میشود» به وضوح تأکید دارد که تهدید واقعی از طرف هوش مصنوعی نیست، بلکه از سوی نظارتها و مقررات پیشگیرانهای است که به دنبال کنترل و سانسور اطلاعات هستند. مدلهای زبانی بزرگ (LLMs) که در حال حاضر بیشترین توجه را به خود جلب کردهاند، بهعنوان یک فناوری جدید در ارتباطات شناخته میشوند. این مدلها مانند گامی دیگر در طول تاریخ تحولات ارتباطی از لوحهای گلی تا چاپ، روزنامهها، رادیو، تلویزیون، اینترنت و شبکههای اجتماعی هستند. هر یک از این پیشرفتها نگرانیهایی را در مورد انتشار «اطلاعات غلط» و تهدیدات احتمالی آنها برای جامعه و حکومتها ایجاد کردهاند و نیاز به «تنظیمگری» آنها مطرح شده است.
آگاهی از اینکه هوش مصنوعی میتواند دروغ بگوید، باعث میشود که تقاضا برای رقابت و صدور گواهینامه بیشتر شود. هوش مصنوعی همچنین میتواند اطلاعات نادرست را تشخیص دهد. مردم به دنبال اطلاعات درست هستند و فناوریهایی که قادر به تأیید صحت اطلاعات باشند، مورد تقاضای عمومی قرار میگیرند.
همچنین در مورد مشاغل و هوش مصنوعی، اغلب نگرانی این است که خودکارسازی و هوش مصنوعی منجر به بیکاری گسترده خواهد شد. اما در طول تاریخ، این نگرانیها تقریباً با هر نوآوری عمده فناورانه مطرح شده است. به عنوان مثال، معرفی دستگاههای بافندگی مکانیکی در قرن نوزدهم باعث کاهش دستمزد بافندگان ماهر شد، اما در عین حال برای کارگران بدون مهارت فرصتی برای رهایی از مشقتهای کار کشاورزی فراهم کرد. پاسخ به این اختلال معمولاً ایجاد یک شبکه ایمنی گسترده است که اثر تغییرات فناوری را بدون کاهش شدید انگیزهها مهار نماید.
دادههای آماری نشان میدهد که با وجود نوآوریهای کاهش دهنده نیاز به نیروی کار به مدت سه قرن، نرخ بیکاری همچنان پایین باقی مانده است. به عنوان مثال در سال ۱۹۰۰، یک سوم آمریکاییها در حوزه کشاورزی کار میکردند، اما با اختراع تراکتور، مردم به مشاغل با دستمزد بالاتر منتقل شدند. به همین ترتیب، ظهور خودروها منجر به بیکاری گسترده اسبسواران نشد. همچنین، توسعه دستگاههای خودپرداز که ابتدا کاهش نیاز به صندوقداران را در پی داشت، در نهایت منجر به گسترش شعب بانکها و ایجاد مشاغل بیشتر شد.
در نهایت میتوان نتیجه گرفت که هوش مصنوعی در این زمینه، تفاوت کیفی چندانی با سایر نوآوریهای تاریخی ندارد. نکته اساسی، مانند گذشته این است که نباید بیش از حد مقررات ایجاد کرد و سیاستهای خاصی را برای مقابله با تأثیرات فناوری وضع نمود؛ بلکه باید سیستمهایی ایجاد کرد که یک شبکه ایمنی گسترده فراهم سازند بدون اینکه فرصتهای اقتصادی حاصل از این تغییرات را نابود کنند.
در طول قرنها نوآوری، از اختراع چاپ متحرک تا توییتر از موتور بخار تا هواپیما، از مزرعه تا کارخانه و برجهای اداری، از کشاورزی تا تولید و سپس ارائه خدمات، از زالو درمانی و خونگیری تا درمان سرطان و از چرتکه تا ماشینحساب، پردازشگر متن، رایانهها، اینترنت و رسانههای اجتماعی، هیچکس نتوانسته است نتایج واقعی و بهویژه پیامدهای اجتماعی و سیاسی فناوریهای جدید را پیشبینی کند.
حتی با بهرهگیری از تجربه تاریخی طولانی، آیا ما به یک اجماع تاریخی در مورد چگونگی تأثیر این نوآوریهای فناورانه بر تغییرات عمیق در جامعه و حکومت رسیدهایم؟ آیا انقلاب صنعتی دموکراسی را به پیش برد یا آن را تضعیف کرد؟
تاریخ پیشبینیهای آخرالزمانی مملو از نگرانیهایی است که بر مبنای آنها هر تحول جدید جامعه را نابود کرده و به استبداد منجر خواهد شد؛ نگرانیهایی که همیشه با درخواستهایی برای واکنشهای قهری بزرگ همراه هستند. این در حالی است که اغلب این پیشبینیها به طرز شگفتانگیزی اشتباه از آب در آمدند.
توماس مالتوس به شکلی منطقی پیشبینی کرد که نوآوریهای فناورانه اواخر قرن ۱۸ منجر به گرسنگی گسترده خواهد شد. پیشبینی او کاملاً اشتباه بود. مارکس تصور میکرد که صنعتی شدن لزوماً به فقر شدید پرولتاریا و کمونیسم منجر میشود. او نیز به طرز شگفتآوری اشتباه کرد. توسعه خودروها اخلاقیات را نابود نکردند. کتابهای مصور و تلویزیون نیز ذهن جوانان را از بین نبردند.
بله، فناوریهای جدید اغلب اثرات متلاطم، خطرات و پیامدهای اجتماعی یا سیاسی به همراه دارند. اما این پرسش در بحث ما مطرح نیست. آیا حتی یک مثال وجود دارد که جامعهای بتواند پیش از وقوع، یک فناوری جدید در حال توسعه را بهدرستی درک کند، اثرات اقتصادی آن را بشناسد (چه برسد به پیامدهای اجتماعی و سیاسی آن)، استفاده از آن را به شکلی سازنده «مقرراتگذاری» کند، از بروز پیامدهای منفی جلوگیری کند و در عین حال از مزایای آن فناوری محروم نشود؟
نمونههای بسیاری وجود دارد از جوامعی که به دلیل ترس بیش از حد از اثرات فناوریهای جدید، آنها را ممنوع یا با تأخیر مورد اسفاده قرار دادند و در نتیجه این سیاست، متحمل هزینههای سنگینی شدند. داستان ناوگان گنجینه چین یکی از این نمونههای کلاسیک است. در قرن ۱۵ میلادی، چین فناوری جدیدی در اختیار داشت. ناوگانی از کشتیهای عظیم، بسیار بزرگتر از نمونههایی که اروپاییها برای قرنها میتوانستند بسازند. این کشتیها حتی تا آفریقا سفر میکردند؛ اما در سال ۱۴۳۰، فرمانروایان چین، با پیشبینی تغییرات اجتماعی و سیاسی، و بهویژه «تهدید قدرتشان از جانب بازرگانان»، سفرهای اقیانوسی را ممنوع کردند. این ممنوعیت، چین را از حضور در تجارت جهانی بازداشت و به اروپاییها فرصت داد تا جایگزین آنان شوند.
وقتی از خود میپرسیم «خطرات هوش مصنوعی چیست؟»، یک بحث جذاب شکل میگیرد. اما اگر به جای آن بپرسیم «چه خطراتی برای اقتصاد، جامعه و دموکراسی ما وجود دارد؟»، مطمئناً جنگ متعارف یا هستهای قدرتهای بزرگ، شورشهای داخلی، فروپاشی نهادها و هنجارهای سیاسی ایالات متحده، بیماریهای همهگیر با نرخ مرگ و میر بالا، کاهش جمعیت، فروپاشی محیطزیست و پایان رشد اقتصادی، بر صفحه امتیازها پیشی گرفته و بالاتر از خطرات مبهم هوش مصنوعی قرار میگیرند. ما به احتمال زیاد اولین همهگیری جهانی را که ناشی از یک ویروس مهندسیشده انسانی بود، تجربه کردهایم. در طول شیوع کرونا مشخص شد که تحقیق در زمینه افزایش عملکرد ویروسها آن چیزی بود که نیاز به مقرراتگذاری داشت؛ به عبارت دیگر، ویروسهای دستکاریشده و نه محصولات غذایی تراریخته، خطر بیولوژیکی واقعی بودند.
من خطرات بالقوه هوش مصنوعی را انکار نمیکنم؛ اما نکته اساسی این است که ابزار پیشنهادی، یعنی مقرراتگذاری که توسط افرادی مانند ما هدایت میشود، هرگز نتواسته است خطرات اجتماعی، اقتصادی و سیاسی تغییرات فنی را تشخیص دهد یا اقدامی سازنده برای پیشگیری از آنها انجام دهد. این ابزار قطعاً اکنون نیز قادر به انجام این کار نخواهد بود. اندازه مشکل به هیچ وجه توجیهکننده استفاده از ابزارهای کاملاً بی اثر نیست.
در چنین شرایطی، حتی کمتر احتمال دارد که مقررات پیشگیرانه مؤثر واقع شوند. قبل از آن که حتی بدانیم هوش مصنوعی چه کاری میتواند انجام دهد و پیش از اینکه خطرات خود را آشکار کند، گفته میشود هوش مصنوعی تهدیدی اساسی است و نسخههای پیشرفتهتر «رباتها کنترل را به دست خواهند گرفت»؛ امری که نیاز به مقررات پیشگیرانه «ایمنی» دارد.
مفروضات مربوط به مقررات اغلب به صورت منفعلانه مطرح میشوند، مثلاً بدون پاسخ به این پرسش که «چه کسی باید مقررات را اعمال کند»، گفته میشود «هوش مصنوعی باید مقرراتگذاری شود». سوال اصلی این است که با تحلیل موفقیتها و شکستهای سیستمهای قانونگذار، تنظیمگر یا اجرایی در گذشته، آنها چه اقداماتی را میتوانند به شکل واقعبینانه انجام دهند. نهادهای تنظیمگر ما در گذشته چه کاری توانستهاند انجام دهند و عملکردشان چگونه بوده است؟
نهادهای تنظیمگر در گذشته به دلیل کندی، ناکارآمدی یا حتی در مواردی آسیب رسانی، مورد انتقاد قرار گرفتهاند. برای مثال نهادهای مذکور در صنایع مختلف مانند داروسازی، حوزه مالی یا حفاظت از محیطزیست معمولاً به جای آنکه به طور پیشگیرانه عمل کنند، تنها پس از بروز آسیبهای قابل توجه عمومی یا محیطی دست به اقدام زدهاند. ناتوانی در مقابله به موقع یا مواجهه افراطی در برخی موارد نشان میدهد که وابستگی صرف به مقررات برای مدیریت چالشهای فناوریهای نوظهوری مانند هوش مصنوعی سبب بروز محدودیت میشود.
مسئله اصلی در مقرراتگذاری هوش مصنوعی لزوم یا عدم لزوم وضع مقررات نیست، بلکه این است که آیا نهادهای موجود قادر به مقرراتگذاری مؤثر بر هوش مصنوعی بدون ایجاد محدودیت برای نوآوری هستند؟ شایستگی اساسی نهادهای تنظیمگر اکنون مورد تردید است. پس از شکست عظیم مقررات مالی در سالهای ۲۰۰۸ و ۲۰۲۱ و همچنین شکستهای آشکار نظام بهداشت عمومی ایالات متحده در سالهای ۲۰۲۰–۲۰۲۲، آیا واقعاً فکر میکنید این ابزارهای نهادی میتوانند با دقت، روند توسعه یکی از پرابهامترین و مهمترین فناوریهای قرن را هدایت کنند؟
این جمله که «تنظیمگری و قانونگذاری هوش مصنوعی تهدیدی برای دموکراسی محسوب میشود» به وضوح تأکید دارد که تهدید واقعی از طرف هوش مصنوعی نیست، بلکه از سوی نظارتها و مقررات پیشگیرانهای است که به دنبال کنترل و سانسور اطلاعات هستند. مدلهای زبانی بزرگ (LLMs) که در حال حاضر بیشترین توجه را به خود جلب کردهاند، بهعنوان یک فناوری جدید در ارتباطات شناخته میشوند. این مدلها مانند گامی دیگر در طول تاریخ تحولات ارتباطی از لوحهای گلی تا چاپ، روزنامهها، رادیو، تلویزیون، اینترنت و شبکههای اجتماعی هستند. هر یک از این پیشرفتها نگرانیهایی را در مورد انتشار «اطلاعات غلط» و تهدیدات احتمالی آنها برای جامعه و حکومتها ایجاد کردهاند و نیاز به «تنظیمگری» آنها مطرح شده است.
آگاهی از اینکه هوش مصنوعی میتواند دروغ بگوید، باعث میشود که تقاضا برای رقابت و صدور گواهینامه بیشتر شود. هوش مصنوعی همچنین میتواند اطلاعات نادرست را تشخیص دهد. مردم به دنبال اطلاعات درست هستند و فناوریهایی که قادر به تأیید صحت اطلاعات باشند، مورد تقاضای عمومی قرار میگیرند.
همچنین در مورد مشاغل و هوش مصنوعی، اغلب نگرانی این است که خودکارسازی و هوش مصنوعی منجر به بیکاری گسترده خواهد شد. اما در طول تاریخ، این نگرانیها تقریباً با هر نوآوری عمده فناورانه مطرح شده است. به عنوان مثال، معرفی دستگاههای بافندگی مکانیکی در قرن نوزدهم باعث کاهش دستمزد بافندگان ماهر شد، اما در عین حال برای کارگران بدون مهارت فرصتی برای رهایی از مشقتهای کار کشاورزی فراهم کرد. پاسخ به این اختلال معمولاً ایجاد یک شبکه ایمنی گسترده است که اثر تغییرات فناوری را بدون کاهش شدید انگیزهها مهار نماید.
دادههای آماری نشان میدهد که با وجود نوآوریهای کاهش دهنده نیاز به نیروی کار به مدت سه قرن، نرخ بیکاری همچنان پایین باقی مانده است. به عنوان مثال در سال ۱۹۰۰، یک سوم آمریکاییها در حوزه کشاورزی کار میکردند، اما با اختراع تراکتور، مردم به مشاغل با دستمزد بالاتر منتقل شدند. به همین ترتیب، ظهور خودروها منجر به بیکاری گسترده اسبسواران نشد. همچنین، توسعه دستگاههای خودپرداز که ابتدا کاهش نیاز به صندوقداران را در پی داشت، در نهایت منجر به گسترش شعب بانکها و ایجاد مشاغل بیشتر شد.
در نهایت میتوان نتیجه گرفت که هوش مصنوعی در این زمینه، تفاوت کیفی چندانی با سایر نوآوریهای تاریخی ندارد. نکته اساسی، مانند گذشته این است که نباید بیش از حد مقررات ایجاد کرد و سیاستهای خاصی را برای مقابله با تأثیرات فناوری وضع نمود؛ بلکه باید سیستمهایی ایجاد کرد که یک شبکه ایمنی گسترده فراهم سازند بدون اینکه فرصتهای اقتصادی حاصل از این تغییرات را نابود کنند.