اگرچه هوش مصنوعی، نماد پیشرفت بشریت در عرصه علم و فناوری محسوب میشود، اما نمیتوان از مخاطرات و آسیبهایی که میتواند با گسترش این حوزه، متوجه آن شود بهسادگی گذشت. به عبارت بهتر، این آسیبها باید پیشبینی و احصاء شده و اقدامات مناسب در راستای حلوفصل آنها صورت گیرد. سامانههای رباتیکی که برای تصمیمگیری از هوش مصنوعی استفاده میکنند، ممکن است خراب شوند و این سامانهها ایمن نیستند.بر اساس یک بررسی جدید، نقص امنیتی جدی در سامانههای هوش مصنوعی ممکن است تهدیدی برای جان انسانها باشد.
محققان هشدار دادهاند که سامانههای رباتیکی که برای تصمیمگیری از هوش مصنوعی استفاده میکنند، ممکن است دچار خرابی شوند و این سامانهها ایمن نیستند.این تحقیق جدید به مدلهای زبانی بزرگ یا الالامها (LLM) پرداخته است؛ فناوری که زیربنای سامانههایی مانند چتجیپیتی را تشکیل میدهد. فناوری مشابهی نیز در رباتیک بهکار میرود تا تصمیمگیری ماشینهای واقعی را کنترل کند.اما این فناوری طبق تحقیقات جدیدی که دانشگاه پنسیلوانیا انجام داده، آسیبپذیریها و ضعفهای امنیتی دارد که ممکن است هکرها از آن سوءاستفاده کنند و از این سامانهها استفاده نامطلوب شود.بر اساس گزارش ایندیپندنت ، جورج پاپاس، استاد این دانشگاه، گفت: «تحقیقات ما نشان میدهد که در حال حاضر، مدلهای زبانی بزرگ اگر با دنیای فیزیکی ادغام شوند، بهاندازه کافی ایمن نیستند.» پروفسور پاپاس و همکارانش نشان دادند که میتوان از سیستمهای امنیتی موجود در بسیاری از سامانههای کنونی عبور کرد. این [مشکل امنیتی میتواند] یک سیستم خودران باشد که ممکن است هک شود تا برای نمونه، ماشین را وادار کند از تقاطعها عبور کند.محققان این مقاله با سازندگان این سیستمها همکاری میکنند تا این نقاط ضعف را شناسایی و در برابر آنها اقدام کنند. اما آنها هشدار دادند که این امر نیازمند بازنگری کلی در نحوه ساخت این سامانهها است و نهفقط رفع ضعفهای خاص.ویجای کومار، یکی دیگر از نویسندگان این مقاله از دانشگاه پنسیلوانیا، گفت: «یافتههای این مقاله بهوضوح نشان میدهد که داشتن رویکردی با اولویت ایمنی برای دستیابی به نوآوری مسئولانه امری حیاتی است. ما باید پیش از استقرار رباتهای مجهز به هوش مصنوعی در دنیای واقعی، آسیبپذیریهای ذاتی [نقاط ضعف اساسی] آنها را برطرف کنیم.»درواقع، پژوهش ما درحالتوسعه چارچوبی برای تایید و اعتبارسنجی است که اطمینان میدهد فقط اقدامهایی که با هنجارهای اجتماعی سازگارند، میتوانند و باید با سیستمهای رباتیک انجام شوند.»سؤال اصلی اینجاست که اگر برخی بانیان توسعه هوش مصنوعی در غرب، برای اهداف غیرهنجاری از آن استفاده کنند ، در این صورت تکلیف چه خواهد بود و آسیبهای امنیتی چگونه میتواند در این مسیر موردتوجه و تحلیل قرار گیرد.