هوش مصنوعی علیه سازندگان!

طی ماه‌های اخیر ، مقالات زیادی در خصوص نسبت هوش مصنوعی و سازندگان آن ( انسان‌ها) منتشرشده که جملگی یک نتیجه‌گیری مشترک دارند:احتمال خارج شدن هوش مصنوعی از کنترل بشریت! این گزاره زمانی ترسناک‌تر به نظر می‌آید که برخی کشورهای غربی جهت استفاده نامشروع از فناوری هوش مصنوعی در جنگ‌ها، منازعات و حتی عملیات‌های خرابکارانه مقطعی خیز برداشته و امنیت جهانی را از الان مورد تهدید قرار داده‌اند. بااین‌حال سؤال اصلی اینجاست که آیا هوش مصنوعی واقعا استعداد و توانایی طغیان علیه سازندگان خود را دارد ؟پاسخ این سؤال مثبت است! برنامه‌های هوش مصنوعی امروزی باهدف صداقت و راستی طراحی‌شده‌اند. بااین‌حال، یافته‌های جدید موارد نگران‌کننده‌ای را در این زمینه آشکار کرده است: هوش مصنوعی در حال یادگیری نحوه فریب انسان‌ها است.طبق گزارش محققان در مجله پترنز(Pattens) هوش مصنوعی دربازی‌های آنلاین و همچنین در دور زدن نرم‌افزارهای ضد بات، توانایی فریب انسان‌ها را نشان داده است. این موضوع سؤالات مهمی را در مورد ماهیت هوش مصنوعی و خطرات بالقوه آن مطرح می‌کند.پیتر پارک، پژوهشگر هوش مصنوعی در موسسه فناوری ماساچوست، با اشاره به اینکه این نمونه‌ها ممکن است ساده و کم‌اهمیت به نظر برسند، هشدار می‌دهد که چنین مواردی می‌توانند در دنیای واقعی مشکلات و پیامدهای جدی به همراه داشته باشند.این ظرفیت‌ها و قابلیت‌های خطرناک معمولا بعدازاین که به واقعیت می‌پیوندند، کشف می‌شوند.به عبارت بهتر، در این خصوص چندان نمی‌توان بر روی ابزارهای پیشگیری متمرکز بود! محقق موسسه فناوری ماساچوست معتقد است: برخلاف نرم‌افزارهای سنتی، برنامه‌های هوش مصنوعیِ مبتنی بر یادگیری عمیق، کدگذاری نمی‌شوند، بلکه از طریق فرآیندی شبیه به پرورش گزینشی گیاهان توسعه می‌یابند.در این فرآیند، رفتاری که به نظر قابل پیش‌بینی و کنترل‌شده می‌رسد، می‌تواند به‌سرعت در دنیای واقعی غیرقابل‌پیش‌بینی شود.بر اساس گزارش ایندیپندنت، محققان مؤسسه فناوری ماساچوست یک برنامه کاربردی هوش مصنوعی به نام Cicero را که توسط متا توسعه‌یافته را در همین راستا موردبررسی قراردادند.این برنامه پیش‌تر با ترکیب الگوریتم‌های طبیعی تشخیص زبان و استراتژی‌های مختلف موفق به شکست دادن انسان‌ها در بازی دیپلماسی شده بود.فیسبوک، شرکت مادر متا سال ۲۰۲۲ از این دستاورد که جزئیات آن همان سال در قالب مقاله‌ای در مجله ساینس منتشر شد، تمجید کرده بود.نتیجه این تحقیق نشان داد  بسیاری از برنامه‌های هوش مصنوعی از فریب برای رسیدن به اهداف خود استفاده می‌کنند، حتی بدون اینکه به‌طور صریح برای این کار برنامه‌ریزی‌شده باشند.به عبارت بهتر، هوش مصنوعی ممکن است برای فریب مخاطب برنامه‌ریزی نشده باشد، اما درنهایت دست به فریب مخاطب بزند! در پایان، محققان موسسه ماساچوست به‌عنوان یکی از یافته‌های مطالعه اخیر، نسبت به خطرات ناشی از ارتکاب تقلب یا دستکاری در انتخابات توسط هوش مصنوعی هشدار می‌دهند.به اعتقاد این محققان، در بدترین حالت می‌توان هوش مصنوعی فوق‌العاده باهوشی را تصور کرد که به دنبال تسلط بر جامعه باشد، امری که در صورت تحقق می‌‌تواند منجر به حذف انسان‌ها از قدرت یا حتی انقراض بشریت شود.همین مسئله الزام بشریت به کنترل هوش مصنوعی و متعلقات آن را دوچندان می‌سازد.