کموکیف جدال هوش مصنوعی و فرصتهای شغلی
توسعه قابلیتهای هوش مصنوعی مولد در ماههای اخیر، خیرهکننده بوده و جایگاه آن را از حوزه فعالیت گروههای متخصصان به صدر برنامههای مدیران اجرایی غولهای فناوری ارتقاء داده است. در چنین شرایطی، بیش از دو سوم شرکتهای فعال در حوزه فناوری، قصد دارند، سرمایهگذاری در زمینه هوش مصنوعی را طی سه سال آینده افزایش دهند. بیشک هوش مصنوعی مولد نیز مانند هر پیشرفت شاخص فناورانه دیگری، خطرات جدیدی را به همراه دارد و حتی میتواند، تهدیدات موجود را تشدید کند. مؤسسه مککینزی، اخیراً طی یک نظرسنجی با عنوان وضعیت هوش مصنوعی در سال ۲۰۲۳: سال انتشار هوش مصنوعی مولد، به بررسی تأثیرات شگرف این فناوری نوظهور بر صنایع و نیروی کار پرداخته است.
براساس این نظرسنجی، تعداد کمی از شرکتها برای استفاده گسترده از نسل هوش مصنوعی یا خطرات تجاری احتمالی این ابزارها کاملا آماده هستند. گزارش مذکور حاکی از آن است که تنها ۳۲درصد از پاسخدهندگان اقداماتی را برای جلوگیری از بیدقتی در دستور کار دارند و ۳۸ درصد (کاهش ۱۳ درصدی آمار نسبت به سال ۲۰۲۲) پاسخ دادهاند که تهدیدات امنیت سایبری را مدیریت میکنند.
مک کینزی در همین راستا و برای کسب اطلاعات بیشتر، با لیز گرنان، همکار متخصص و مدیر اعتماد دیجیتال سایت و برایس هال، تهیهکننده گزارش مذکور، گفتوگو کرده است. در این مصاحبه محورهایی مطرح و نظراتی درباره نتایج تحقیق اخیر این مؤسسه ارائه شده است که در ادامه به اختصار بیان میشوند.
هال درباره محورهای مهم مطرح شده در این گزارش به تشخیص ارزشهای نهان و پیدای ابزارهای هوش مصنوعی مولد توسط کسبوکارها در کنار نگرانی شدید نسبت به خطرات بالقوه آنها اذعان داشت و گفت: «بخش دیگر مسئله این است که شناخت گستردهای از سوی شرکتها نسبت به تهدیدات وجود دارد. آگاهی نسبت به بسیاری از این مخاطرات همچون حریم خصوصی، برابری، تعصب و توضیحپذیری در رابطه با هوش مصنوعی سنتی، پیشتر وجود داشت؛ اما اکنون موارد جدیدی همچون دقت، حفاظت از IP و اسناد، امنیت سایبری و … نیز افزایش یافته است.»
گرنان نیز در پاسخ به پرسشی درباره تغییر چشمانداز مدیریت تهدیدات هوش مصنوعی گفت که سرعت و پیشرفت روزافزون امکان پیشبینی درست نیازهای مدیریتی این فناوری را سلب کرده است. او با اشاره به افزایش مقیاس و سرعت استفاده مخرب از این فناوری، تعویق مدیریت خطر توسط شرکتها را موجب ندامت عمیق آنها در آینده دانست.
وی همچنین تصریح کرد، علاوهبر افزایش آسیب به شهرت شرکتها، کاهش مشتریان و افت ارزش بازار، افزایش جریمهها و تنظیمگری نیز بزرگترین تغییرات حاصل از تحولات فناورانه در چند سال گذشته هستند. گرنان در ادامه افزود: «یکی از بزرگترین تغییرات در چند سال گذشته مفهوم مسئولیت شخصی مدیران ارشد و اعضای هیئت مدیره در قبال نارساییهای نظارتی است. رهبران باید درک خوبی از نوآوری در حال ظهور در سازمان خود داشته باشند، به خصوص اگر خروجی آن بر مشتریانشان تأثیر بگذارد.»
هال در ادامه گفتوگو و در پاسخ به پرسشی دیگر درباره نحوه واکنش شرکتها به این چالشهای فزاینده، آنها را به سه دسته تقسیم کرد:
شرکتهایی که دست به ممنوعیت استفاده از این فناوری زدهاند؛
شرکتهایی که به انتظار نشسته و شعار هر چه پیش آید خوش آید را سرلوحه کار خود قرار دادهاند؛
و مدیرانی که مترصد اتخاذ یک استراتژی مدون هستند.
به عقیده لیز گرنان، آنچه باعث تمایز رهبران شرکتهای پیشرو با سایرین است، نهادینه کردن مدیریت تهدیدات و کنترل این فناوری در همه سطوح و بخشهای شرکت است. وی معتقد است، باید کنترل خطرات هوش مصنوعی در مسیر فرآیندها انجام شود و توان افراد برای مدیریت آنها ارتقاء یابد. همچنین با عنایت به این نکته که فناوریها به سرعت در حال تغییر هستند، سازوکار کنترل تهدیدات نیز باید به طور مداوم به روز شود.
مک کینزی اخیراً ۱۰ ویژگی اساسی هوش مصنوعی مسئول را منتشر کرده که عبارت است از:
دقیق و قابل اعتماد-پاسخگو و شفاف-منصفانه و انسان محور- ایمن و اخلاقی-امن و تابآور-قابل تفسیر و مستند-حفظ حریم خصوصی و مدیریت دادهها-دقت و نظارت در انتخاب شرکا و ارائهدهنده سرویس-نظارت پیوسته-یادگیری و توسعه مستمر.
گرنان در ادامه گفتوگوی خود، در پاسخ به این پرسش که سازمانها طی 6 ماه آینده باید چه تغییراتی را در مدیریت ریسک هوش مصنوعی پیشبینی کنند؟ پاسخ داد: «ما شاهد برداشتن گامهایی در جهت رسمی شدن برخی استانداردهای جهانی خواهیم بود. کاخ سفید در حال حاضر برنامههایی برای حکمرانی بر هوش مصنوعی به صورت امن، ایمن و قابل اعتماد دارد که از ذینفعان میخواهد، به آن بپیوندند. قانون هوش مصنوعی اتحادیه اروپا نیز ممکن است، تا اوایل سال ۲۰۲۵ اجرایی شود و باعث الزامی شدن اقدامات بسیاری برای شرکتها شود.»
وی همچنین پیشبینی کرد در طول سال آینده، ارزش اجتماعی و سازمانی هوش مصنوعی افزایش یابد و افزود: «این امر، هم فضیلت خواهد بود و هم رذیلت. یکی از گرایشهای فناوری در سال آینده میتواند، استفاده از هوش مصنوعی برای مبارزه با آسیبهای هوش مصنوعی باشد؛ زیرا ما نمیتوانیم این مشکل را با روشهای سنتی حل کنیم.»
براساس این نظرسنجی، تعداد کمی از شرکتها برای استفاده گسترده از نسل هوش مصنوعی یا خطرات تجاری احتمالی این ابزارها کاملا آماده هستند. گزارش مذکور حاکی از آن است که تنها ۳۲درصد از پاسخدهندگان اقداماتی را برای جلوگیری از بیدقتی در دستور کار دارند و ۳۸ درصد (کاهش ۱۳ درصدی آمار نسبت به سال ۲۰۲۲) پاسخ دادهاند که تهدیدات امنیت سایبری را مدیریت میکنند.
مک کینزی در همین راستا و برای کسب اطلاعات بیشتر، با لیز گرنان، همکار متخصص و مدیر اعتماد دیجیتال سایت و برایس هال، تهیهکننده گزارش مذکور، گفتوگو کرده است. در این مصاحبه محورهایی مطرح و نظراتی درباره نتایج تحقیق اخیر این مؤسسه ارائه شده است که در ادامه به اختصار بیان میشوند.
هال درباره محورهای مهم مطرح شده در این گزارش به تشخیص ارزشهای نهان و پیدای ابزارهای هوش مصنوعی مولد توسط کسبوکارها در کنار نگرانی شدید نسبت به خطرات بالقوه آنها اذعان داشت و گفت: «بخش دیگر مسئله این است که شناخت گستردهای از سوی شرکتها نسبت به تهدیدات وجود دارد. آگاهی نسبت به بسیاری از این مخاطرات همچون حریم خصوصی، برابری، تعصب و توضیحپذیری در رابطه با هوش مصنوعی سنتی، پیشتر وجود داشت؛ اما اکنون موارد جدیدی همچون دقت، حفاظت از IP و اسناد، امنیت سایبری و … نیز افزایش یافته است.»
گرنان نیز در پاسخ به پرسشی درباره تغییر چشمانداز مدیریت تهدیدات هوش مصنوعی گفت که سرعت و پیشرفت روزافزون امکان پیشبینی درست نیازهای مدیریتی این فناوری را سلب کرده است. او با اشاره به افزایش مقیاس و سرعت استفاده مخرب از این فناوری، تعویق مدیریت خطر توسط شرکتها را موجب ندامت عمیق آنها در آینده دانست.
وی همچنین تصریح کرد، علاوهبر افزایش آسیب به شهرت شرکتها، کاهش مشتریان و افت ارزش بازار، افزایش جریمهها و تنظیمگری نیز بزرگترین تغییرات حاصل از تحولات فناورانه در چند سال گذشته هستند. گرنان در ادامه افزود: «یکی از بزرگترین تغییرات در چند سال گذشته مفهوم مسئولیت شخصی مدیران ارشد و اعضای هیئت مدیره در قبال نارساییهای نظارتی است. رهبران باید درک خوبی از نوآوری در حال ظهور در سازمان خود داشته باشند، به خصوص اگر خروجی آن بر مشتریانشان تأثیر بگذارد.»
هال در ادامه گفتوگو و در پاسخ به پرسشی دیگر درباره نحوه واکنش شرکتها به این چالشهای فزاینده، آنها را به سه دسته تقسیم کرد:
شرکتهایی که دست به ممنوعیت استفاده از این فناوری زدهاند؛
شرکتهایی که به انتظار نشسته و شعار هر چه پیش آید خوش آید را سرلوحه کار خود قرار دادهاند؛
و مدیرانی که مترصد اتخاذ یک استراتژی مدون هستند.
به عقیده لیز گرنان، آنچه باعث تمایز رهبران شرکتهای پیشرو با سایرین است، نهادینه کردن مدیریت تهدیدات و کنترل این فناوری در همه سطوح و بخشهای شرکت است. وی معتقد است، باید کنترل خطرات هوش مصنوعی در مسیر فرآیندها انجام شود و توان افراد برای مدیریت آنها ارتقاء یابد. همچنین با عنایت به این نکته که فناوریها به سرعت در حال تغییر هستند، سازوکار کنترل تهدیدات نیز باید به طور مداوم به روز شود.
مک کینزی اخیراً ۱۰ ویژگی اساسی هوش مصنوعی مسئول را منتشر کرده که عبارت است از:
دقیق و قابل اعتماد-پاسخگو و شفاف-منصفانه و انسان محور- ایمن و اخلاقی-امن و تابآور-قابل تفسیر و مستند-حفظ حریم خصوصی و مدیریت دادهها-دقت و نظارت در انتخاب شرکا و ارائهدهنده سرویس-نظارت پیوسته-یادگیری و توسعه مستمر.
گرنان در ادامه گفتوگوی خود، در پاسخ به این پرسش که سازمانها طی 6 ماه آینده باید چه تغییراتی را در مدیریت ریسک هوش مصنوعی پیشبینی کنند؟ پاسخ داد: «ما شاهد برداشتن گامهایی در جهت رسمی شدن برخی استانداردهای جهانی خواهیم بود. کاخ سفید در حال حاضر برنامههایی برای حکمرانی بر هوش مصنوعی به صورت امن، ایمن و قابل اعتماد دارد که از ذینفعان میخواهد، به آن بپیوندند. قانون هوش مصنوعی اتحادیه اروپا نیز ممکن است، تا اوایل سال ۲۰۲۵ اجرایی شود و باعث الزامی شدن اقدامات بسیاری برای شرکتها شود.»
وی همچنین پیشبینی کرد در طول سال آینده، ارزش اجتماعی و سازمانی هوش مصنوعی افزایش یابد و افزود: «این امر، هم فضیلت خواهد بود و هم رذیلت. یکی از گرایشهای فناوری در سال آینده میتواند، استفاده از هوش مصنوعی برای مبارزه با آسیبهای هوش مصنوعی باشد؛ زیرا ما نمیتوانیم این مشکل را با روشهای سنتی حل کنیم.»