بحران امنیت در هوش مصنوعی

اگرچه هوش مصنوعی، نماد پیشرفت بشریت در عرصه علم و فناوری محسوب می‌شود، اما نمی‌توان از مخاطرات و آسیب‌هایی که می‌تواند با گسترش این حوزه، متوجه آن شود به‌سادگی گذشت. به عبارت بهتر، این آسیب‌ها باید پیش‌بینی و احصاء شده و اقدامات مناسب در راستای حل‌وفصل آن‌ها صورت گیرد. سامانه‌های رباتیکی که برای تصمیم‌گیری از هوش مصنوعی استفاده می‌کنند، ممکن است خراب شوند و این سامانه‌ها ایمن نیستند.بر اساس یک بررسی جدید، نقص امنیتی جدی در سامانه‌های هوش مصنوعی ممکن است تهدیدی برای جان انسان‌ها باشد.
محققان هشدار داده‌اند که سامانه‌های رباتیکی که برای تصمیم‌گیری از هوش مصنوعی استفاده می‌کنند، ممکن است دچار خرابی شوند و این سامانه‌ها ایمن نیستند.این تحقیق جدید به مدل‌های زبانی بزرگ یا ال‌ال‌ام‌‌‌ها (LLM) پرداخته است؛ فناوری‌ که زیربنای سامانه‌هایی مانند چت‌جی‌پی‌تی را تشکیل می‌دهد. فناوری مشابهی نیز در رباتیک به‌کار می‌رود تا تصمیم‌گیری‌ ماشین‌های واقعی را کنترل کند.اما این فناوری طبق تحقیقات جدیدی که دانشگاه پنسیلوانیا انجام داده، آسیب‌پذیری‌ها و ضعف‌های امنیتی دارد که ممکن است هکرها از آن سوءاستفاده کنند و از این سامانه‌ها استفاده نامطلوب شود.بر اساس گزارش ایندیپندنت ، جورج پاپاس، استاد این دانشگاه، گفت: «تحقیقات ما نشان می‌دهد که در حال حاضر، مدل‌های زبانی بزرگ اگر با دنیای فیزیکی ادغام شوند، به‌اندازه کافی ایمن نیستند.» پروفسور پاپاس و همکارانش نشان دادند که می‌توان از سیستم‌های امنیتی موجود در بسیاری از سامانه‌های کنونی عبور کرد. این [مشکل امنیتی می‌تواند] یک سیستم خودران‌ باشد که ممکن است هک شود تا برای نمونه، ماشین را وادار کند از تقاطع‌ها عبور کند.محققان این مقاله با سازندگان این سیستم‌ها همکاری می‌کنند تا این نقاط ضعف را شناسایی و در برابر آن‌ها اقدام کنند. اما آن‌ها هشدار دادند که این امر نیازمند بازنگری کلی در نحوه ساخت این سامانه‌ها است و نه‌فقط رفع ضعف‌های خاص.ویجای کومار، یکی دیگر از نویسندگان این مقاله از دانشگاه پنسیلوانیا، گفت: «یافته‌های این مقاله به‌وضوح نشان می‌دهد که داشتن رویکردی با اولویت ایمنی برای دستیابی به نوآوری مسئولانه امری حیاتی است. ما باید پیش از استقرار ربات‌های مجهز به هوش مصنوعی در دنیای واقعی، آسیب‌پذیری‌های ذاتی [نقاط ضعف اساسی] آن‌ها را برطرف کنیم.»درواقع، پژوهش ما درحال‌توسعه چارچوبی برای تایید و اعتبارسنجی است که اطمینان می‌دهد فقط اقدام‌هایی که با هنجارهای اجتماعی سازگارند، می‌توانند و باید با سیستم‌های رباتیک انجام شوند.»سؤال اصلی اینجاست که اگر برخی بانیان توسعه هوش مصنوعی در غرب، برای اهداف غیرهنجاری از آن استفاده کنند ، در این صورت تکلیف چه خواهد بود و آسیب‌های امنیتی چگونه می‌تواند در این مسیر موردتوجه و تحلیل قرار گیرد.