هوش مصنوعی و چالش دقت

نرخ پذیرش هوش مصنوعی مولد به لطف  قابلیت های فریبنده و جذاب آن در صنایع و مشاغلی با هر اندازه و سطح اهمیتی در حال افزایش است. در یک نظرسنجی که به تازگی انجام شده است، ۶۵ درصد از پاسخ‌دهندگان تأیید کردند که هوش مصنوعی مولد به طور مرتب در سازمان‌های آن‌ها استفاده می‌شود. میزانی نزدیک به دو برابر تعداد گزارش شده در سال گذشته. با این حال، ادغام سریع هوش مصنوعی مولد بدون استراتژی مناسب در حوزه امنیت و تدوین استانداردهای رسمی استفاده، می‌تواند خطرات قابل توجهی به دنبال داشته باشد. از جمله این خطرات می‌توان به نشت داده‌ها، ترویج تعصبات، تولید محتوای نامناسب و غیردقیق اشاره کرد. هنگامی که استفاده از ابزارهای مذکور بدون اقدامات حفاظتی قوی رخ دهد، خطرات ناشی از آن می‌توانند به سرعت برنامه‌های کاربردی هوش مصنوعی مولد را از دارایی‌های ارزشمند به بار مسئولیت و بدهی تبدیل کنند. اتفاقی که می‌تواند به صدمه شهرت و اعتبار یک سازمان یا ضررهای مالی و حتی ورشکستگی منجر شود.
به گزارش زاویه؛ مهندسی پرسش (Prompt engineering) به عنوان شیوه نگارش دستورالعمل‌های متنی برای هدایت خروجی‌های هوش مصنوعی به سمت پاسخ‌های مورد نظر، یکی از اعمالی است که برای استقرار مسئولانه و ایمن هوش مصنوعی به کار گرفته می‌شود. با این وجود، هوش مصنوعی مولد همچنان می‌تواند به طور ناخواسته داده‌های حساس را به خطر بیندازد و اطلاعات نادرست را در پاسخ به دستورات ارائه شده تولید کند. این معضل در شرایط ارائه پرسش‌ها با جزئیات بیش از حد، بعضاً تشدید نیز می‌شود.
این در حالی است که متخصصان مدعی هستند روش‌های دیگری نیز برای کاهش خطرات ذاتی در استفاده از هوش مصنوعی وجود دارد.
 خطاهای مهندسی پرسش
در حالی که مهندسی پرسش تا حدودی می‌تواند در زمینه کاهش خطا در سیستم‌های هوش مصنوعی مؤثر باشد، معایب آن اغلب از مزایای آن بیشتر است. برای مثال، این فرآیند زمان‌بر است. به‌روزرسانی و تنظیم مداوم پرامت‌ها برای همگام شدن با ماهیت رو به‌ تکامل محتوایی که هوش مصنوعی تولید می‌کند، معمولاً نیازمند زمان و سطوح بالایی از نظارت مداوم ایجاد می‌کند؛ امری که مدیریت و حفظ کیفیت مهندسی پرسش را دشوار است.
اگرچه مهندسی پرسش یک روش رایج برای توسعه‌دهندگان نرم‌افزار جهت اطمینان از توانایی رسیدگی مناسب به طیف گسترده‌ای از سناریوها توسط سیستم‌های پردازش زبان طبیعی به شمار می‌رود اما تجربه نشان داده که این روش ناکافی است و کارآمدی چندانی ندارد. این رویکرد اغلب می‌تواند منجر به ظهور یک سیستم پردازش زبان طبیعی گردد که در درک کامل و پاسخ دقیق به پرس‌و‌جوی کاربران دچار مشکل می‌شود.
صرف نظر از این، مهندسی پرسش کارآمد به توافق کامل بین کارکنان، مشتریان و ذینفعان مرتبط بستگی دارد. تفسیرها یا انتظارات متناقض از نیازمندی‌های پرسش، در روند هماهنگی، پیچیدگی غیرضروری ایجاد می‌کند و همچنین باعث تأخیر در استقرار و مانع از دستیابی به محصول نهایی می‌شود.
علاوه بر این، مهندسی پرسش نه تنها نمی‌تواند خروجی‌های مضر، نادرست یا بی‌معنی را کاملاً از بین ببرد، بلکه یک مطالعه نشان می‌دهد که برخلاف باور عمومی، این روش حتی ممکن است مشکل را تشدید کند.
محققان دریافتند که دقت مدل‌های زبانی بزرگ، هنگام دریافت جزئیات بیشتر در متن پرسش برای پردازش، کاهش می‌یابد. آزمایش‌های متعدد نشان داده است که هرچه دستورالعمل‌های بیشتری به یک درخواست اضافه شود، مدل رفتار ناسازگارتر و در نتیجه خروجی‌های نادرست یا نامرتبط بیشتری تولید می‌کند. در واقع، توانایی منحصر به فرد هوش مصنوعی مولد برای یادگیری و استنباط اطلاعات جدید بر تنوع استوار است و محدودیت بیش از حد این توانایی را کاهش می‌دهد.
در نهایت، این مسئله نیز وجود دارد که مهندسی پرسش، خطر حملات تزریق پرسش یا تلاش هکرها برای دستکاری عمدی پاسخ‌های هوش مصنوعی را کاهش نمی‌دهد. این مدل‌ها هنوز نمی‌توانند بدون اقدامات حفاظتی اضافی بین دستورالعمل‌های بی‌ضرر و مخرب تمایز قائل شوند. مهاجمان با ساخت دقیق پرسش مخرب می‌توانند هوش مصنوعی را فریب دهند تا خروجی‌های مضر تولید کند؛ امری که می‌تواند منجر به افزایش اطلاعات نادرست، نشت داده‌ها و سایر آسیب‌پذیری‌های امنیتی شود.
به عقیده کارشناسان، این چالش‌ها همگی مهندسی پرسش را به یک روش نامطمئن و پرابهام برای حفظ استانداردهای کیفیت برنامه‌های کاربردی هوش مصنوعی تبدیل می‌کنند.
 محدودیت‌های حفاظتی تقویت‌شده
رویکرد دوم با عنوان ایجاد محدودیت‌های حفاظتی هوش مصنوعی شناخته می‌شود و یک راه حل بسیار قوی‌تر و بلندمدت‌تر برای مشکلات هوش مصنوعی مولد نسبت به مهندسی پرسش ارائه می‌دهد. متخصصان بر این باور هستند که رویکرد مذکور امکان استقرار مؤثر و مسئولانه هوش مصنوعی را فراهم می‌کند.
بر خلاف مهندسی پرسش، محدودیت‌های ایجادی هوش مصنوعی، خروجی‌های این فناوری را در لحظه رخداد نظارت و کنترل می‌کنند و از رفتار ناخواسته، پاسخ‌های نادرست و غیردقیق و نشت تصادفی داده‌ها جلوگیری می‌کند. این سازوکارها به عنوان یک لایه نظارتی واسط بین مدل‌های زبانی بزرگ و رابط‌های هوش مصنوعی مولد عمل و با تأخیر زیر ثانیه کار می‌کنند. این بدان معناست که محدودیت‌های مذکور می‌توانند یک راه حل کم هزینه و با راندمان بالا برای جلوگیری از نشت ناخواسته داده‌ها و دستکاری آن‌ها توسط بازیگران مخرب همچنین فیلتر اطلاعات نادرست یا پاسخ‌های نامناسب پیش از رسیدن به کاربر نهایی ارائه دهند.
با ایجاد سیاست‌های روشن و از پیش تعریف‌شده، محدودیت‌های ایجاد شده برای هوش مصنوعی تضمین می‌کند که تعاملات هوش مصنوعی به طور مداوم با ارزش‌ها و اهداف شرکت‌های ارائه‌دهنده مطابقت دارد. برخلاف مهندسی پرسش، این ابزارها نیازی به تنظیم مکرر دستورالعمل‌های دستورات متنی به دست تیم‌های امنیتی ندارند. در عوض، این رویکرد اجازه می‌دهد که محدودیت‌های ایجادی کنترل امور را در دست بگیرند و تیم امنیتی روی وظایف مهم‌تر تمرکز کند.
علاوه بر این، محدودیت‌های ایجادی هوش مصنوعی را می‌توان به راحتی برای هر مورد خاص تنظیم کرد تا اطمینان حاصل شود که هر کسب‌وکاری می‌تواند الزامات ایمنی و قابلیت اطمینان هوش مصنوعی صنعت مربوطه را برآورده کند.
بدون شک کاربران باید اطمینان داشته باشند که پاسخ‌های تولید شده توسط هوش مصنوعی قابل اعتماد است. هر پاسخ غلط و نامربوط می‌تواند عواقب منفی زیادی برای کسب‌وکارهای فعال در زمینه آزمایش و استقرار برنامه‌های کاربردی مبتنی بر هوش مصنوعی داشته باشد.
در چنین شرایطی اگرچه مهندسی پرسش چندان هم بدون مزیت نیست، اما می‌تواند به سرعت به مؤلفه‌ای مضر برای دستورات ارائه شده به مدل‌های زبانی تبدیل شود و مستقیماً سبب بروز خطرات گسترده امنیتی و نشر اطلاعات نادرست تبدیل شود.
از سوی دیگر، محدودیت‌های ایجادی سازوکاری برای اطمینان از استقرار ایمن و مطابق هوش مصنوعی ارائه می‌دهند و نظارت بلادرنگ و سیاست‌های قابل تنظیم را برای نیازهای منحصر به فرد هر کسب‌وکار فراهم می‌سازند.
به عقیده بسیاری از متخصصان، این تغییر در روش‌شناسی می‌تواند به سازمان‌ها مزیت رقابتی اعطا کند و اعتماد ذینفعان و انطباق را تقویت کند؛ امری که آن‌ها برای پیشرفت و تداوم توسعه در یک چشم‌انداز در حال رشد مبتنی بر هوش مصنوعی به آن نیاز دارند.