طی ماههای اخیر ، مقالات زیادی در خصوص نسبت هوش مصنوعی و سازندگان آن ( انسانها) منتشرشده که جملگی یک نتیجهگیری مشترک دارند:احتمال خارج شدن هوش مصنوعی از کنترل بشریت! این گزاره زمانی ترسناکتر به نظر میآید که برخی کشورهای غربی جهت استفاده نامشروع از فناوری هوش مصنوعی در جنگها، منازعات و حتی عملیاتهای خرابکارانه مقطعی خیز برداشته و امنیت جهانی را از الان مورد تهدید قرار دادهاند. بااینحال سؤال اصلی اینجاست که آیا هوش مصنوعی واقعا استعداد و توانایی طغیان علیه سازندگان خود را دارد ؟پاسخ این سؤال مثبت است! برنامههای هوش مصنوعی امروزی باهدف صداقت و راستی طراحیشدهاند. بااینحال، یافتههای جدید موارد نگرانکنندهای را در این زمینه آشکار کرده است: هوش مصنوعی در حال یادگیری نحوه فریب انسانها است.طبق گزارش محققان در مجله پترنز(Pattens) هوش مصنوعی دربازیهای آنلاین و همچنین در دور زدن نرمافزارهای ضد بات، توانایی فریب انسانها را نشان داده است. این موضوع سؤالات مهمی را در مورد ماهیت هوش مصنوعی و خطرات بالقوه آن مطرح میکند.پیتر پارک، پژوهشگر هوش مصنوعی در موسسه فناوری ماساچوست، با اشاره به اینکه این نمونهها ممکن است ساده و کماهمیت به نظر برسند، هشدار میدهد که چنین مواردی میتوانند در دنیای واقعی مشکلات و پیامدهای جدی به همراه داشته باشند.این ظرفیتها و قابلیتهای خطرناک معمولا بعدازاین که به واقعیت میپیوندند، کشف میشوند.به عبارت بهتر، در این خصوص چندان نمیتوان بر روی ابزارهای پیشگیری متمرکز بود! محقق موسسه فناوری ماساچوست معتقد است: برخلاف نرمافزارهای سنتی، برنامههای هوش مصنوعیِ مبتنی بر یادگیری عمیق، کدگذاری نمیشوند، بلکه از طریق فرآیندی شبیه به پرورش گزینشی گیاهان توسعه مییابند.در این فرآیند، رفتاری که به نظر قابل پیشبینی و کنترلشده میرسد، میتواند بهسرعت در دنیای واقعی غیرقابلپیشبینی شود.بر اساس گزارش ایندیپندنت، محققان مؤسسه فناوری ماساچوست یک برنامه کاربردی هوش مصنوعی به نام Cicero را که توسط متا توسعهیافته را در همین راستا موردبررسی قراردادند.این برنامه پیشتر با ترکیب الگوریتمهای طبیعی تشخیص زبان و استراتژیهای مختلف موفق به شکست دادن انسانها در بازی دیپلماسی شده بود.فیسبوک، شرکت مادر متا سال ۲۰۲۲ از این دستاورد که جزئیات آن همان سال در قالب مقالهای در مجله ساینس منتشر شد، تمجید کرده بود.نتیجه این تحقیق نشان داد بسیاری از برنامههای هوش مصنوعی از فریب برای رسیدن به اهداف خود استفاده میکنند، حتی بدون اینکه بهطور صریح برای این کار برنامهریزیشده باشند.به عبارت بهتر، هوش مصنوعی ممکن است برای فریب مخاطب برنامهریزی نشده باشد، اما درنهایت دست به فریب مخاطب بزند! در پایان، محققان موسسه ماساچوست بهعنوان یکی از یافتههای مطالعه اخیر، نسبت به خطرات ناشی از ارتکاب تقلب یا دستکاری در انتخابات توسط هوش مصنوعی هشدار میدهند.به اعتقاد این محققان، در بدترین حالت میتوان هوش مصنوعی فوقالعاده باهوشی را تصور کرد که به دنبال تسلط بر جامعه باشد، امری که در صورت تحقق میتواند منجر به حذف انسانها از قدرت یا حتی انقراض بشریت شود.همین مسئله الزام بشریت به کنترل هوش مصنوعی و متعلقات آن را دوچندان میسازد.