نرخ پذیرش هوش مصنوعی مولد به لطف قابلیت های فریبنده و جذاب آن در صنایع و مشاغلی با هر اندازه و سطح اهمیتی در حال افزایش است. در یک نظرسنجی که به تازگی انجام شده است، ۶۵ درصد از پاسخدهندگان تأیید کردند که هوش مصنوعی مولد به طور مرتب در سازمانهای آنها استفاده میشود. میزانی نزدیک به دو برابر تعداد گزارش شده در سال گذشته. با این حال، ادغام سریع هوش مصنوعی مولد بدون استراتژی مناسب در حوزه امنیت و تدوین استانداردهای رسمی استفاده، میتواند خطرات قابل توجهی به دنبال داشته باشد. از جمله این خطرات میتوان به نشت دادهها، ترویج تعصبات، تولید محتوای نامناسب و غیردقیق اشاره کرد. هنگامی که استفاده از ابزارهای مذکور بدون اقدامات حفاظتی قوی رخ دهد، خطرات ناشی از آن میتوانند به سرعت برنامههای کاربردی هوش مصنوعی مولد را از داراییهای ارزشمند به بار مسئولیت و بدهی تبدیل کنند. اتفاقی که میتواند به صدمه شهرت و اعتبار یک سازمان یا ضررهای مالی و حتی ورشکستگی منجر شود.
به گزارش زاویه؛ مهندسی پرسش (Prompt engineering) به عنوان شیوه نگارش دستورالعملهای متنی برای هدایت خروجیهای هوش مصنوعی به سمت پاسخهای مورد نظر، یکی از اعمالی است که برای استقرار مسئولانه و ایمن هوش مصنوعی به کار گرفته میشود. با این وجود، هوش مصنوعی مولد همچنان میتواند به طور ناخواسته دادههای حساس را به خطر بیندازد و اطلاعات نادرست را در پاسخ به دستورات ارائه شده تولید کند. این معضل در شرایط ارائه پرسشها با جزئیات بیش از حد، بعضاً تشدید نیز میشود.
این در حالی است که متخصصان مدعی هستند روشهای دیگری نیز برای کاهش خطرات ذاتی در استفاده از هوش مصنوعی وجود دارد.
خطاهای مهندسی پرسش
در حالی که مهندسی پرسش تا حدودی میتواند در زمینه کاهش خطا در سیستمهای هوش مصنوعی مؤثر باشد، معایب آن اغلب از مزایای آن بیشتر است. برای مثال، این فرآیند زمانبر است. بهروزرسانی و تنظیم مداوم پرامتها برای همگام شدن با ماهیت رو به تکامل محتوایی که هوش مصنوعی تولید میکند، معمولاً نیازمند زمان و سطوح بالایی از نظارت مداوم ایجاد میکند؛ امری که مدیریت و حفظ کیفیت مهندسی پرسش را دشوار است.
اگرچه مهندسی پرسش یک روش رایج برای توسعهدهندگان نرمافزار جهت اطمینان از توانایی رسیدگی مناسب به طیف گستردهای از سناریوها توسط سیستمهای پردازش زبان طبیعی به شمار میرود اما تجربه نشان داده که این روش ناکافی است و کارآمدی چندانی ندارد. این رویکرد اغلب میتواند منجر به ظهور یک سیستم پردازش زبان طبیعی گردد که در درک کامل و پاسخ دقیق به پرسوجوی کاربران دچار مشکل میشود.
صرف نظر از این، مهندسی پرسش کارآمد به توافق کامل بین کارکنان، مشتریان و ذینفعان مرتبط بستگی دارد. تفسیرها یا انتظارات متناقض از نیازمندیهای پرسش، در روند هماهنگی، پیچیدگی غیرضروری ایجاد میکند و همچنین باعث تأخیر در استقرار و مانع از دستیابی به محصول نهایی میشود.
علاوه بر این، مهندسی پرسش نه تنها نمیتواند خروجیهای مضر، نادرست یا بیمعنی را کاملاً از بین ببرد، بلکه یک مطالعه نشان میدهد که برخلاف باور عمومی، این روش حتی ممکن است مشکل را تشدید کند.
محققان دریافتند که دقت مدلهای زبانی بزرگ، هنگام دریافت جزئیات بیشتر در متن پرسش برای پردازش، کاهش مییابد. آزمایشهای متعدد نشان داده است که هرچه دستورالعملهای بیشتری به یک درخواست اضافه شود، مدل رفتار ناسازگارتر و در نتیجه خروجیهای نادرست یا نامرتبط بیشتری تولید میکند. در واقع، توانایی منحصر به فرد هوش مصنوعی مولد برای یادگیری و استنباط اطلاعات جدید بر تنوع استوار است و محدودیت بیش از حد این توانایی را کاهش میدهد.
در نهایت، این مسئله نیز وجود دارد که مهندسی پرسش، خطر حملات تزریق پرسش یا تلاش هکرها برای دستکاری عمدی پاسخهای هوش مصنوعی را کاهش نمیدهد. این مدلها هنوز نمیتوانند بدون اقدامات حفاظتی اضافی بین دستورالعملهای بیضرر و مخرب تمایز قائل شوند. مهاجمان با ساخت دقیق پرسش مخرب میتوانند هوش مصنوعی را فریب دهند تا خروجیهای مضر تولید کند؛ امری که میتواند منجر به افزایش اطلاعات نادرست، نشت دادهها و سایر آسیبپذیریهای امنیتی شود.
به عقیده کارشناسان، این چالشها همگی مهندسی پرسش را به یک روش نامطمئن و پرابهام برای حفظ استانداردهای کیفیت برنامههای کاربردی هوش مصنوعی تبدیل میکنند.
محدودیتهای حفاظتی تقویتشده
رویکرد دوم با عنوان ایجاد محدودیتهای حفاظتی هوش مصنوعی شناخته میشود و یک راه حل بسیار قویتر و بلندمدتتر برای مشکلات هوش مصنوعی مولد نسبت به مهندسی پرسش ارائه میدهد. متخصصان بر این باور هستند که رویکرد مذکور امکان استقرار مؤثر و مسئولانه هوش مصنوعی را فراهم میکند.
بر خلاف مهندسی پرسش، محدودیتهای ایجادی هوش مصنوعی، خروجیهای این فناوری را در لحظه رخداد نظارت و کنترل میکنند و از رفتار ناخواسته، پاسخهای نادرست و غیردقیق و نشت تصادفی دادهها جلوگیری میکند. این سازوکارها به عنوان یک لایه نظارتی واسط بین مدلهای زبانی بزرگ و رابطهای هوش مصنوعی مولد عمل و با تأخیر زیر ثانیه کار میکنند. این بدان معناست که محدودیتهای مذکور میتوانند یک راه حل کم هزینه و با راندمان بالا برای جلوگیری از نشت ناخواسته دادهها و دستکاری آنها توسط بازیگران مخرب همچنین فیلتر اطلاعات نادرست یا پاسخهای نامناسب پیش از رسیدن به کاربر نهایی ارائه دهند.
با ایجاد سیاستهای روشن و از پیش تعریفشده، محدودیتهای ایجاد شده برای هوش مصنوعی تضمین میکند که تعاملات هوش مصنوعی به طور مداوم با ارزشها و اهداف شرکتهای ارائهدهنده مطابقت دارد. برخلاف مهندسی پرسش، این ابزارها نیازی به تنظیم مکرر دستورالعملهای دستورات متنی به دست تیمهای امنیتی ندارند. در عوض، این رویکرد اجازه میدهد که محدودیتهای ایجادی کنترل امور را در دست بگیرند و تیم امنیتی روی وظایف مهمتر تمرکز کند.
علاوه بر این، محدودیتهای ایجادی هوش مصنوعی را میتوان به راحتی برای هر مورد خاص تنظیم کرد تا اطمینان حاصل شود که هر کسبوکاری میتواند الزامات ایمنی و قابلیت اطمینان هوش مصنوعی صنعت مربوطه را برآورده کند.
بدون شک کاربران باید اطمینان داشته باشند که پاسخهای تولید شده توسط هوش مصنوعی قابل اعتماد است. هر پاسخ غلط و نامربوط میتواند عواقب منفی زیادی برای کسبوکارهای فعال در زمینه آزمایش و استقرار برنامههای کاربردی مبتنی بر هوش مصنوعی داشته باشد.
در چنین شرایطی اگرچه مهندسی پرسش چندان هم بدون مزیت نیست، اما میتواند به سرعت به مؤلفهای مضر برای دستورات ارائه شده به مدلهای زبانی تبدیل شود و مستقیماً سبب بروز خطرات گسترده امنیتی و نشر اطلاعات نادرست تبدیل شود.
از سوی دیگر، محدودیتهای ایجادی سازوکاری برای اطمینان از استقرار ایمن و مطابق هوش مصنوعی ارائه میدهند و نظارت بلادرنگ و سیاستهای قابل تنظیم را برای نیازهای منحصر به فرد هر کسبوکار فراهم میسازند.
به عقیده بسیاری از متخصصان، این تغییر در روششناسی میتواند به سازمانها مزیت رقابتی اعطا کند و اعتماد ذینفعان و انطباق را تقویت کند؛ امری که آنها برای پیشرفت و تداوم توسعه در یک چشمانداز در حال رشد مبتنی بر هوش مصنوعی به آن نیاز دارند.