دیدگاه‌های جان اچ. کاکرین، اقتصاددان مشهور آمریکایی درباره

هوش مصنوعی هوش مصنوعی، جامعه و دموکراسی

جان هولاند کاکرین، اقتصاددان مشهور آمریکایی، اخیراً با انتشار مقاله‌ای در وب سایت شخصی خود به تأثیرات هوش مصنوعی و مقررات آن بر دموکراسی و جامعه پرداخته است. وی در این نوشتار کوتاه ادعا می‌کند که قوانین و مقررات هرگز نتوانسته‌اند به صورت کامل بیماری‌های اجتماعی، سیاسی و اقتصادی ناشی از ظهور فناوری‌های جدید را شناسایی و از بروز آن‌ها پیشگیری کنند؛ هوش مصنوعی نیز از این قاعده مستثنی نیست. به اعتقاد او، مقررات هوش مصنوعی نسبت به خود هوش مصنوعی، تهدیدی بزرگ‌تر برای دموکراسی محسوب می‌شود، زیرا دولت‌ها از مقررات به عنوان ابزاری برای سانسور اطلاعات استفاده می‌کنند. کاکرین باور دارد که رقابت آزاد در جامعه مدنی، رسانه‌ها و دانشگاه‌ها، همان‌گونه که در انقلاب‌های فناورانه پیشین عمل کرد، آثار منفی هوش مصنوعی را نیز برطرف خواهد نمود و نیازی به مقررات پیشگیرانه و سخت‌گیرانه در این حوزه وجود ندارد. رسانه زاویه در این یادداشت به مرور دیدگاه‌های ارائه شده از سوی کاکرین پرداخته است:
در طول قرن‌ها نوآوری، از اختراع چاپ متحرک تا توییتر از موتور بخار تا هواپیما، از مزرعه تا کارخانه و برج‌های اداری، از کشاورزی تا تولید و سپس ارائه خدمات، از زالو درمانی و خون‌گیری تا درمان سرطان  و از چرتکه تا ماشین‌حساب، پردازشگر متن، رایانه‌ها، اینترنت و رسانه‌های اجتماعی، هیچ‌کس نتوانسته است نتایج واقعی و به‌ویژه پیامدهای اجتماعی و سیاسی فناوری‌های جدید را پیش‌بینی کند.
حتی با بهره‌گیری از تجربه تاریخی طولانی، آیا ما به یک اجماع تاریخی در مورد چگونگی تأثیر این نوآوری‌های فناورانه بر تغییرات عمیق در جامعه و حکومت رسیده‌ایم؟ آیا انقلاب صنعتی دموکراسی را به پیش برد یا آن را تضعیف کرد؟
تاریخ پیش‌بینی‌های آخرالزمانی مملو از نگرانی‌هایی است که بر مبنای آن‌ها هر تحول جدید جامعه را نابود کرده و به استبداد منجر خواهد شد؛ نگرانی‌هایی که همیشه با درخواست‌هایی برای واکنش‌های قهری بزرگ همراه هستند. این در حالی است که اغلب این پیش‌بینی‌ها به طرز شگفت‌انگیزی اشتباه از آب در آمدند.
توماس مالتوس به شکلی منطقی پیش‌بینی کرد که نوآوری‌های فناورانه اواخر قرن ۱۸ منجر به گرسنگی گسترده خواهد شد. پیش‌بینی او کاملاً اشتباه بود. مارکس تصور می‌کرد که صنعتی شدن لزوماً به فقر شدید پرولتاریا و کمونیسم منجر می‌شود. او نیز به طرز شگفت‌آوری اشتباه کرد. توسعه خودروها اخلاقیات را نابود نکردند. کتاب‌های مصور و تلویزیون نیز ذهن جوانان را از بین نبردند.
بله، فناوری‌های جدید اغلب اثرات متلاطم، خطرات و پیامدهای اجتماعی یا سیاسی به همراه دارند. اما این پرسش در بحث ما مطرح نیست. آیا حتی یک مثال وجود دارد که جامعه‌ای بتواند پیش از وقوع، یک فناوری جدید در حال توسعه را به‌درستی درک کند، اثرات اقتصادی آن را بشناسد (چه برسد به پیامدهای اجتماعی و سیاسی آن)، استفاده از آن را به شکلی سازنده «مقررات‌گذاری» کند، از بروز پیامدهای منفی جلوگیری کند و در عین حال از مزایای آن فناوری محروم نشود؟
نمونه‌های بسیاری وجود دارد از جوامعی که به دلیل ترس بیش از حد از اثرات فناوری‌های جدید، آن‌ها را ممنوع یا با تأخیر مورد اسفاده قرار دادند و در نتیجه این سیاست، متحمل هزینه‌های سنگینی شدند. داستان ناوگان گنجینه چین یکی از این نمونه‌های کلاسیک است. در قرن ۱۵ میلادی، چین فناوری جدیدی در اختیار داشت. ناوگانی از کشتی‌های عظیم، بسیار بزرگ‌تر از نمونه‌هایی که اروپایی‌ها برای قرن‌ها می‌توانستند بسازند. این کشتی‌ها حتی تا آفریقا سفر می‌کردند؛ اما در سال ۱۴۳۰، فرمانروایان چین، با پیش‌بینی تغییرات اجتماعی و سیاسی، و به‌ویژه «تهدید قدرتشان از جانب بازرگانان»، سفرهای اقیانوسی را ممنوع کردند. این ممنوعیت، چین را از حضور در تجارت جهانی بازداشت و به اروپایی‌ها فرصت داد تا جایگزین آنان شوند.
وقتی از خود می‌پرسیم «خطرات هوش مصنوعی چیست؟»، یک بحث جذاب شکل می‌گیرد. اما اگر به جای آن بپرسیم «چه خطراتی برای اقتصاد، جامعه و دموکراسی ما وجود دارد؟»، مطمئناً جنگ متعارف یا هسته‌ای قدرت‌های بزرگ، شورش‌های داخلی، فروپاشی نهادها و هنجارهای سیاسی ایالات متحده، بیماری‌های همه‌گیر با نرخ مرگ و میر بالا، کاهش جمعیت‌، فروپاشی محیط‌زیست و پایان رشد اقتصادی، بر صفحه امتیازها پیشی گرفته و بالاتر از خطرات مبهم هوش مصنوعی قرار می‌گیرند. ما به احتمال زیاد اولین همه‌گیری جهانی را که ناشی از یک ویروس مهندسی‌شده انسانی بود، تجربه کرده‌ایم. در طول شیوع کرونا مشخص شد که تحقیق در زمینه افزایش عملکرد ویروس‌ها آن چیزی بود که نیاز به مقررات‌گذاری داشت؛ به عبارت دیگر، ویروس‌های دستکاری‌شده و نه محصولات غذایی تراریخته، خطر بیولوژیکی واقعی بودند.
من خطرات بالقوه هوش مصنوعی را انکار نمی‌کنم؛ اما نکته اساسی این است که ابزار پیشنهادی، یعنی مقررات‌گذاری که توسط افرادی مانند ما هدایت می‌شود، هرگز نتواسته است خطرات اجتماعی، اقتصادی و سیاسی تغییرات فنی را تشخیص دهد یا اقدامی سازنده برای پیشگیری از آن‌ها انجام دهد. این ابزار قطعاً اکنون نیز قادر به انجام این کار نخواهد بود. اندازه مشکل به هیچ وجه توجیه‌کننده استفاده از ابزارهای کاملاً بی اثر نیست.
در چنین شرایطی، حتی کمتر احتمال دارد که مقررات پیشگیرانه مؤثر واقع شوند. قبل از آن که حتی بدانیم هوش مصنوعی چه کاری می‌تواند انجام دهد و پیش از اینکه خطرات خود را آشکار کند، گفته می‌شود هوش مصنوعی تهدیدی اساسی است و نسخه‌های پیشرفته‌تر «ربات‌ها کنترل را به دست خواهند گرفت»؛ امری که نیاز به مقررات پیشگیرانه «ایمنی» دارد.
مفروضات مربوط به مقررات اغلب به صورت منفعلانه مطرح می‌شوند، مثلاً بدون پاسخ به این پرسش که «چه کسی باید مقررات را اعمال کند»، گفته می‌شود «هوش مصنوعی باید مقررات‌گذاری شود». سوال اصلی این است که با تحلیل موفقیت‌ها و شکست‌های سیستم‌های قانون‌گذار، تنظیم‌گر یا اجرایی در گذشته، آن‌ها چه اقداماتی را می‌توانند به شکل واقع‌بینانه انجام دهند. نهادهای تنظیم‌گر ما در گذشته چه کاری توانسته‌اند انجام دهند و عملکردشان چگونه بوده است؟
نهادهای تنظیم‌گر در گذشته به دلیل کندی، ناکارآمدی یا حتی در مواردی آسیب رسانی، مورد انتقاد قرار گرفته‌اند. برای مثال نهادهای مذکور در صنایع مختلف مانند داروسازی، حوزه مالی یا حفاظت از محیط‌زیست معمولاً به جای آنکه به طور پیشگیرانه عمل کنند، تنها پس از بروز آسیب‌های قابل توجه عمومی یا محیطی دست به اقدام زده‌اند. ناتوانی در مقابله به موقع یا مواجهه افراطی در برخی موارد نشان می‌دهد که وابستگی صرف به مقررات برای مدیریت چالش‌های فناوری‌های نوظهوری مانند هوش مصنوعی سبب بروز محدودیت‌ می‌شود.
مسئله اصلی در مقررات‌گذاری هوش مصنوعی لزوم یا عدم لزوم وضع مقررات نیست، بلکه این است که آیا نهادهای موجود قادر به مقررات‌گذاری مؤثر بر هوش مصنوعی بدون ایجاد محدودیت برای نوآوری هستند؟ شایستگی اساسی نهادهای تنظیم‌گر اکنون مورد تردید است. پس از شکست عظیم مقررات مالی در سال‌های ۲۰۰۸ و ۲۰۲۱ و همچنین شکست‌های آشکار نظام بهداشت عمومی ایالات متحده در سال‌های ۲۰۲۰–۲۰۲۲، آیا واقعاً فکر می‌کنید این ابزارهای نهادی می‌توانند با دقت، روند توسعه یکی از پرابهام‌ترین و مهم‌ترین فناوری‌های قرن را هدایت کنند؟
این جمله که «تنظیم‌گری و قانون‌گذاری هوش مصنوعی تهدیدی برای دموکراسی محسوب می‌شود» به وضوح تأکید دارد که تهدید واقعی از طرف هوش مصنوعی نیست، بلکه از سوی نظارت‌ها و مقررات پیشگیرانه‌ای است که به دنبال کنترل و سانسور اطلاعات هستند. مدل‌های زبانی بزرگ (LLMs) که در حال حاضر بیشترین توجه را به خود جلب کرده‌اند، به‌عنوان یک فناوری جدید در ارتباطات شناخته می‌شوند. این مدل‌ها مانند گامی دیگر در طول تاریخ تحولات ارتباطی از لوح‌های گلی تا چاپ، روزنامه‌ها، رادیو، تلویزیون، اینترنت و شبکه‌های اجتماعی هستند. هر یک از این پیشرفت‌ها نگرانی‌هایی را در مورد انتشار «اطلاعات غلط» و تهدیدات احتمالی آن‌ها برای جامعه و حکومت‌ها ایجاد کرده‌اند و نیاز به «تنظیم‌گری» آن‌ها مطرح شده است.
آگاهی از اینکه هوش مصنوعی می‌تواند دروغ بگوید، باعث می‌شود که تقاضا برای رقابت و صدور گواهینامه بیشتر شود. هوش مصنوعی همچنین می‌تواند اطلاعات نادرست را تشخیص دهد. مردم به دنبال اطلاعات درست هستند و فناوری‌هایی که قادر به تأیید صحت اطلاعات باشند، مورد تقاضای عمومی قرار می‌گیرند.
همچنین در مورد مشاغل و هوش مصنوعی، اغلب نگرانی این است که خودکارسازی و هوش مصنوعی منجر به بیکاری گسترده خواهد شد. اما در طول تاریخ، این نگرانی‌ها تقریباً با هر نوآوری عمده فناورانه مطرح شده است. به عنوان مثال، معرفی دستگاه‌های بافندگی مکانیکی در قرن نوزدهم باعث کاهش دستمزد بافندگان ماهر شد، اما در عین حال برای کارگران بدون مهارت فرصتی برای رهایی از مشقت‌های کار کشاورزی فراهم کرد. پاسخ به این اختلال معمولاً ایجاد یک شبکه ایمنی گسترده است که اثر تغییرات فناوری را بدون کاهش شدید انگیزه‌ها مهار نماید.
داده‌های آماری نشان می‌دهد که با وجود نوآوری‌های کاهش دهنده نیاز به نیروی کار به مدت سه قرن، نرخ بیکاری همچنان پایین باقی مانده است. به عنوان مثال در سال ۱۹۰۰، یک سوم آمریکایی‌ها در حوزه کشاورزی کار می‌کردند، اما با اختراع تراکتور، مردم به مشاغل با دستمزد بالاتر منتقل شدند. به همین ترتیب، ظهور خودرو‌ها منجر به بیکاری گسترده اسب‌سواران نشد. همچنین، توسعه دستگاه‌های خودپرداز که ابتدا کاهش نیاز به صندوقداران را در پی داشت، در نهایت منجر به گسترش شعب بانک‌ها و ایجاد مشاغل بیشتر شد.
در نهایت می‌توان نتیجه گرفت که هوش مصنوعی در این زمینه، تفاوت کیفی چندانی با سایر نوآوری‌های تاریخی ندارد. نکته اساسی، مانند گذشته این است که نباید بیش از حد مقررات ایجاد کرد و سیاست‌های خاصی را برای مقابله با تأثیرات فناوری وضع نمود؛ بلکه باید سیستم‌هایی ایجاد کرد که یک شبکه ایمنی گسترده فراهم سازند بدون اینکه فرصت‌های اقتصادی حاصل از این تغییرات را نابود کنند.
هوش مصنوعی هوش مصنوعی، جامعه و دموکراسی
دریافت همه صفحات
دانلود این صفحه
آرشیو