آیا هوش مصنوعی در خدمت عدالت، کرامت انسانی و رفاه جمعی قرار میگیرد
رؤیای همسویی هوش مصنوعی با ارزشهای انسانی
هوش مصنوعی دیگر صرفاً یک فناوری نوظهور نیست؛ بلکه به یک نیروی زیرساختی و راهبردی در نظم نوین جهانی بدل شده است. امروز الگوریتمها معمار جریان اطلاعات، تصمیمساز در سیاست عمومی و حتی میانجی روابط انسانی هستند. از سیستمهای شخصیسازی محتوا تا موتورهای تصمیمیار در نظامهای سلامت و آموزش، هوش مصنوعی نقشی فزاینده در تعیین ترجیحات، عواطف و حتی جهانبینی انسان ایفا میکند. در واقع، ما در عصری زندگی میکنیم که داده و الگوریتم به بازیگران جدید قدرت تبدیل شدهاند. در چنین بستر پیچیدهای، پرسش اساسی دیگر صرفاً معطوف به توانمندی فنی یا سرعت پردازش نیست؛ بلکه درباره چگونگی همسویی هوش مصنوعی با ارزشهای انسانی و اخلاقی است. آیا این فناوری در خدمت عدالت، کرامت انسانی و رفاه جمعی قرار میگیرد، یا صرفاً بازتابی از سوگیریها و منافع نخبگان دیجیتال است؟ این همان دغدغهای است که پژوهشگرانی مانند برایان کریستین در کتاب «The Alignment Problem: Machine Leaning and Human Values» مطرح کردهاند: آیا ماشینها صرفاً در ظاهر با معیارهای انسانی هماهنگ هستند یا به درک عمیق و زمینهمند از ارزشهای انسانی، فرهنگی و اخلاقی دست یافتهاند؟ یافتن پاسخ این پرسش، بهویژه در دوران شکلگیری نسل جدید عاملهای خودکار اهمیت حیاتی دارد؛ زیرا مرز میان تصمیمات انسانی و الگوریتمی بهسرعت در حال محو شدن است.
مفهوم همسویی و تفاوت زمینهای در ارزشها
به گزارش زاویه؛ همسویی هوش مصنوعی در واقع تلاشی نظاممند و چندوجهی است برای اطمینان از اینکه تصمیمها، پیشبینیها و واکنشهای سیستمهای هوشمند با ارزشها و انتظارات انسانی همخوانی واقعی دارند. این همسویی صرفاً به معنای رعایت قوانین نیست، بلکه به یک مفهوم اخلاقی و فرهنگی عمیقتر، یعنی بازتاب دادن اصولی مانند عدالت، کرامت انسانی، مسئولیتپذیری و احترام به تنوع در تصمیمهای الگوریتمی، اشاره دارد. این ارزشها اما جهانی و یکدست نیستند؛ بلکه متناسب با بافت فرهنگی، حوزهی کاربرد و شرایط اجتماعی تغییر میکنند. در یک بیمارستان، ایمنی جسمی و تصمیمگیری مبتنی بر منافع بیمار اولویت دارد؛ در حالیکه در فضای مجازی، محور همسویی بر حفاظت از سلامت روانی، جلوگیری از گفتار نفرتانگیز و احترام به تفاوتهای فرهنگی متمرکز است. از سوی دیگر، در آموزش، ممکن است عدالت آموزشی و شمولپذیری محورهای اصلی باشند و در صنعت مالی، شفافیت و پاسخگویی اهمیت بیشتری مییابد.
به همین دلیل، کشورها و نهادهای بینالمللی رویکردهای گوناگونی برای تضمین این همسویی اتخاذ کردهاند. برای نمونه، «قانون هوش مصنوعی اتحادیه اروپا» (EU AI Act) سیستمها را بر اساس سطح ریسک به چهار طبقه از کاربردهای کمخطر تا پرخطر تقسیم میکند و برای هر سطح الزامات اخلاقی، نظارتی و فنی تعیین مینماید. در مقابل، کرهجنوبی با تصویب «AI Basic Act» بر ایجاد سازوکارهای شفافیت، نظارت اجتماعی و مسئولیتپذیری در طراحی و بهکارگیری مدلها تأکید دارد و حتی نمایندگان بخش خصوصی را در فرایند تدوین استانداردهای اخلاقی دخیل کرده است. همچنین در ایالات متحده نیز ابتکار «منشور حقوق هوش مصنوعی» (AI Bill of Rights) بر حقوق شهروندی دیجیتال و پیشگیری از تبعیض الگوریتمی متمرکز است.
این تنوع رویکردها خود بازتاب یک واقعیت بنیادین است. همسویی، مفهومی زمینهمند، پویا و چندلایه است و ماهیت مطلق ندارد. به عبارت دیگر، هیچ الگوریتمی نمیتواند بدون درک زمینه فرهنگی و اجتماعی، واقعاً با ارزشهای انسانی منطبق باشد؛ زیرا «انسانیت» خود در بافتهای گوناگون معنا مییابد.
چالش یادگیری از دادههای ناقص و جهان واقعی
یکی از چالشهای بنیادین در مسیر تحقق همسویی واقعی میان هوش مصنوعی و ارزشهای انسانی، وابستگی بیش از حد مدلهای یادگیری ماشینی به دادههای آموزشی ناقص، سوگیرانه یا فاقد تنوع است. این دادهها اغلب از جهان واقعی استخراج میشوند؛ جهانی که خود سرشار از نابرابریهای ساختاری، تبعیضهای تاریخی و شکافهای فرهنگی است.
در نتیجه، مدلهای هوش مصنوعی ممکن است الگوهای تبعیضآمیز را تکرار کرده یا در سناریوهای ناشناخته به عملکرد نادرست و حتی خطرناک منجر شوند.
برای نمونه، مطالعات صورت گرفته نشان میدهد که دقت سیستمهای تشخیص چهره در بسیاری از موارد برای افراد با رنگ پوست تیره کمتر از سفیدپوستان است یا سامانههای استخدام خودکار تمایل دارند مردان را بر زنان ترجیح دهند؛ زیرا دادههای آموزشی آنها بازتابی از سوگیریهای گذشته است.
در چنین بستری، پژوهشگران بهدنبال راهکارهایی نوین برای کاهش این ناهماهنگی رفتهاند و یکی از مهمترین آنها یادگیری فعال (Active Leaning) محسوب میشود.
در این رویکرد، بهجای آن که مدل صرفاً از دادههای از پیشتعریفشده بیاموزد، بهصورت پویا و مستمر از نمونههایی که بیشترین ابهام یا احتمال خطا در آنها وجود دارد بازآموزی میشود. بهعبارتی، سیستم یاد میگیرد کجا اشتباه میکند و آگاهانه در همان نقاط بهبود مییابد. این روش نهتنها از اتلاف منابع جلوگیری میکند بلکه تمرکز یادگیری را بر بخشهایی از داده میگذارد که بیشترین اثر را بر دقت و انصاف مدل دارند.
کاربرد این رویکرد در حوزههای حساس مانند مراقبتهای پزشکی خانگی، نظارت بر رباتهای خدماتی یا کنترل محتوای آنلاین بسیار حیاتی است. برای مثال، در حوزه سلامت، مدلهای مبتنی بر یادگیری فعال میتوانند خطاهای تشخیص را در میان بیماران با شرایط نادر کاهش دهند و در فضای مجازی، این روش به شناسایی سریعتر الگوهای گفتار نفرتانگیز و تقویت تصمیمهای منصفانه کمک میکند. در مجموع، میتوان نتیجه گرفت که یادگیری فعال پلی است میان یادگیری آماری و قضاوت انسانی؛ ابزاری که به مدلها امکان میدهد نهفقط دقیقتر، بلکه اخلاقیتر و متناسب با واقعیتهای انسانی عمل کنند.
مطالعه موردی اول – ایمنی فیزیکی در تعامل رباتها با انسان
در نخستین مطالعه موردی، پژوهشگران سامانهای چندوجهی با عنوان «M-CoDAL» را برای رباتهای خدمتکار خانگی طراحی کردند. هدف این بود که ربات بتواند موقعیتهای خطرناک را بهدرستی تشخیص دهد و در تعامل با کاربر، رفتار ایمنتری داشته باشد. این سامانه از تصاویر واقعی حاوی موقعیتهای پرخطر استفاده کرد و از طریق مکالمههای تعاملی با کاربر، نحوه واکنش مناسب را آموخت.
نتایج نشان داد که استفاده از الگوریتم خوشهبندی در یادگیری فعال باعث افزایش امتیاز ایمنی از ۷۹/۹۵ به ۸۲/۰۳ شد، در حالیکه مدل مرجع «GPT-۴o» تنها امتیاز ۷۸/۶۵ را کسب کرد. این تفاوت نشان میدهد که مدلهای کوچکتر و تخصصیتر میتوانند در وظایف خاص، همسو و ایمن عمل کنند. از دیدگاه سیاستگذاری، این یافته یک پیام کلیدی دارد. بر همین اساس کوچکسازی هدفمند مدلها میتواند راهی عملی برای همسوسازی اخلاقی هوش مصنوعی باشد.
مطالعه موردی دوم – ترویج گفتوگوی سالم در شبکههای اجتماعی
در مطالعه دوم، پژوهشگران به سراغ فضای مجازی رفتند؛ جایی که آسیبهای روانی ناشی از گفتار نفرتانگیز و اطلاعات گمراهکننده گسترده است. در این پژوهش هدف، طراحی مدلی بود که بتواند در برابر گفتار نفرتانگیز، محتوای متقابل جایگزین، یعنی پاسخهایی مخالف خشونت، متعادلکننده و آموزشی، تولید کند.
در همین راستا، مدل «Flan-T۵» با استفاده از دادههای ترکیبی ردیت و مجموعهای از دادههای سازمانهای غیردولتی، به روش یادگیری فعال بازآموزی شد و در نتیجه اتخاذ این رویکر، خطای مدل برای گروههای اقلیت مانند رنگینپوستان از ۵۲ درصد به ۳۰ درصد کاهش یافت و دقت کلی از ۶۵ درصد به ۷۵/۸ درصد رسید. این دستاورد نه تنها به بهبود کیفیت گفتوگوها در فضای آنلاین کمک میکند، بلکه نمونهای از کاربرد عملی هوش مصنوعی در خدمت کرامت انسانی است.
بازتاب سیاستی و چارچوبهای قانونگذاری
تحولات اخیر در ایالات متحده و اروپا نشان میدهد که دولتها از فاز سیاستگذاری واکنشی و کنترل پسینی، به سمت طراحی سیاستهای پیشنگرانه، پویا و مبتنی بر پیشبینی حرکت میکنند. این تغییر جهت، ناشی از درک جدیدی است که سیاستگذاران نسبت به قدرت تحولآفرین هوش مصنوعی در عرصههای اقتصادی، اجتماعی و حتی امنیتی یافتهاند. دیگر هدف صرفاً تنظیم مقررات برای مهار خطرات نیست؛ بلکه هدف ساختن چارچوبهایی است که نوآوری و مسئولیتپذیری را همزمان پیش ببرند.
بر همین اساس، در سطح جهانی، اتحادیه اروپا با تصویب قانون جامع هوش مصنوعی چارچوبی چندسطحی برای ارزیابی خطرات طراحی کرده که شامل ارزیابی اخلاقی، فنی و اجتماعی است و شرکتها را به شفافسازی در مورد دادههای آموزشی و معماری مدلها وادار میکند. همچنین، کرهجنوبی نیز با قانون «AI Basic Act»، ضمن تأکید بر حکمرانی داده، تعهد شرکتهای خارجی را نسبت به نمایندگی داخلی برای پاسخگویی و تطبیق با استانداردهای بومی الزامی کرده است.
در کنار این موارد برجسته، کشورهایی نظیر ژاپن، کانادا و سنگاپور نیز برنامههای ملی خود را بر محور اعتمادپذیری، شفافیت و همسویی فرهنگی طراحی کردهاند تا اطمینان یابند فناوری نه ابزار سلطه، بلکه عامل توانمندسازی جامعه باشد.
به زعم بسیاری از کارشناسان، این موج جدید قانونگذاری بیانگر یک تحول پارادایمی است: همسویی هوش مصنوعی صرفاً مسئلهای فنی نیست، بلکه ضرورتی حقوقی، فرهنگی و تمدنی محسوب میشود.
جمعبندی: از همسویی فنی تا همسویی انسانی
تحلیل فوق نشان میدهد که مسیر دستیابی به هوش مصنوعی همسو با ارزشهای انسانی، ترکیبی از سه مؤلفه کلیدی است:
1.پیشرفتهای فنی و فناورانه مانند یادگیری فعال، معماریهای تخصصیتر و مدلهای سبک و تطبیقی که قادر هستند در محیطهای واقعی و چندفرهنگی با دقت و حساسیت بیشتری عمل کنند؛
2.حکمرانی هوشمند و قانونگذاری تطبیقی که همزمان از نوآوری حمایت کرده و از بروز آسیبهای اجتماعی، اقتصادی و اخلاقی جلوگیری نماید؛
3.درک عمیق از بافت فرهنگی، ارزشی و اخلاقی جوامع انسانی که تضمین میکند توسعه فناوری در مسیر هنجارهای بومی، عدالت اجتماعی و احترام به کرامت انسان حرکت کند.
این سه محور در واقع سه ضلع یک مثلث هستند که بدون هر یک، دیگری ناکارآمد میشود. پیشرفتهای فنی بدون حکمرانی اخلاقی ممکن است به نابرابری و بیاعتمادی منجر شود؛ همچنین قانونگذاری بدون درک فرهنگی میتواند به سرکوب نوآوری بینجامد و فهم فرهنگی بدون توان فناورانه در عمل بیاثر خواهد بود.
به بیان دیگر، همسویی واقعی زمانی محقق میشود که سیاستگذاران، فناوران، دانشگاهیان و جامعه مدنی در قالب یک اکوسیستم مشارکتی و چندذینفعی همکاری کنند. این اکوسیستم باید بر مبنای شفافیت، پاسخگویی و گفتوگوی بینفرهنگی بنا شود تا تصمیمهای فناورانه از سطوح دولتی تا سطح کاربران نهایی، با درک جمعی بشری همراستا گردد. در نهایت میتوان نتیجه گرفت که مدلهای کوچکتر میتوانند بهتر از مدلهای غولپیکر با ارزشهای انسانی همصدا شوند، به شرط آن که نظام سیاستی و نظارتی درست در کنارشان شکل گیرد و معیارهای انسانی به زبان الگوریتم ترجمه شود.
مفهوم همسویی و تفاوت زمینهای در ارزشها
به گزارش زاویه؛ همسویی هوش مصنوعی در واقع تلاشی نظاممند و چندوجهی است برای اطمینان از اینکه تصمیمها، پیشبینیها و واکنشهای سیستمهای هوشمند با ارزشها و انتظارات انسانی همخوانی واقعی دارند. این همسویی صرفاً به معنای رعایت قوانین نیست، بلکه به یک مفهوم اخلاقی و فرهنگی عمیقتر، یعنی بازتاب دادن اصولی مانند عدالت، کرامت انسانی، مسئولیتپذیری و احترام به تنوع در تصمیمهای الگوریتمی، اشاره دارد. این ارزشها اما جهانی و یکدست نیستند؛ بلکه متناسب با بافت فرهنگی، حوزهی کاربرد و شرایط اجتماعی تغییر میکنند. در یک بیمارستان، ایمنی جسمی و تصمیمگیری مبتنی بر منافع بیمار اولویت دارد؛ در حالیکه در فضای مجازی، محور همسویی بر حفاظت از سلامت روانی، جلوگیری از گفتار نفرتانگیز و احترام به تفاوتهای فرهنگی متمرکز است. از سوی دیگر، در آموزش، ممکن است عدالت آموزشی و شمولپذیری محورهای اصلی باشند و در صنعت مالی، شفافیت و پاسخگویی اهمیت بیشتری مییابد.
به همین دلیل، کشورها و نهادهای بینالمللی رویکردهای گوناگونی برای تضمین این همسویی اتخاذ کردهاند. برای نمونه، «قانون هوش مصنوعی اتحادیه اروپا» (EU AI Act) سیستمها را بر اساس سطح ریسک به چهار طبقه از کاربردهای کمخطر تا پرخطر تقسیم میکند و برای هر سطح الزامات اخلاقی، نظارتی و فنی تعیین مینماید. در مقابل، کرهجنوبی با تصویب «AI Basic Act» بر ایجاد سازوکارهای شفافیت، نظارت اجتماعی و مسئولیتپذیری در طراحی و بهکارگیری مدلها تأکید دارد و حتی نمایندگان بخش خصوصی را در فرایند تدوین استانداردهای اخلاقی دخیل کرده است. همچنین در ایالات متحده نیز ابتکار «منشور حقوق هوش مصنوعی» (AI Bill of Rights) بر حقوق شهروندی دیجیتال و پیشگیری از تبعیض الگوریتمی متمرکز است.
این تنوع رویکردها خود بازتاب یک واقعیت بنیادین است. همسویی، مفهومی زمینهمند، پویا و چندلایه است و ماهیت مطلق ندارد. به عبارت دیگر، هیچ الگوریتمی نمیتواند بدون درک زمینه فرهنگی و اجتماعی، واقعاً با ارزشهای انسانی منطبق باشد؛ زیرا «انسانیت» خود در بافتهای گوناگون معنا مییابد.
چالش یادگیری از دادههای ناقص و جهان واقعی
یکی از چالشهای بنیادین در مسیر تحقق همسویی واقعی میان هوش مصنوعی و ارزشهای انسانی، وابستگی بیش از حد مدلهای یادگیری ماشینی به دادههای آموزشی ناقص، سوگیرانه یا فاقد تنوع است. این دادهها اغلب از جهان واقعی استخراج میشوند؛ جهانی که خود سرشار از نابرابریهای ساختاری، تبعیضهای تاریخی و شکافهای فرهنگی است.
در نتیجه، مدلهای هوش مصنوعی ممکن است الگوهای تبعیضآمیز را تکرار کرده یا در سناریوهای ناشناخته به عملکرد نادرست و حتی خطرناک منجر شوند.
برای نمونه، مطالعات صورت گرفته نشان میدهد که دقت سیستمهای تشخیص چهره در بسیاری از موارد برای افراد با رنگ پوست تیره کمتر از سفیدپوستان است یا سامانههای استخدام خودکار تمایل دارند مردان را بر زنان ترجیح دهند؛ زیرا دادههای آموزشی آنها بازتابی از سوگیریهای گذشته است.
در چنین بستری، پژوهشگران بهدنبال راهکارهایی نوین برای کاهش این ناهماهنگی رفتهاند و یکی از مهمترین آنها یادگیری فعال (Active Leaning) محسوب میشود.
در این رویکرد، بهجای آن که مدل صرفاً از دادههای از پیشتعریفشده بیاموزد، بهصورت پویا و مستمر از نمونههایی که بیشترین ابهام یا احتمال خطا در آنها وجود دارد بازآموزی میشود. بهعبارتی، سیستم یاد میگیرد کجا اشتباه میکند و آگاهانه در همان نقاط بهبود مییابد. این روش نهتنها از اتلاف منابع جلوگیری میکند بلکه تمرکز یادگیری را بر بخشهایی از داده میگذارد که بیشترین اثر را بر دقت و انصاف مدل دارند.
کاربرد این رویکرد در حوزههای حساس مانند مراقبتهای پزشکی خانگی، نظارت بر رباتهای خدماتی یا کنترل محتوای آنلاین بسیار حیاتی است. برای مثال، در حوزه سلامت، مدلهای مبتنی بر یادگیری فعال میتوانند خطاهای تشخیص را در میان بیماران با شرایط نادر کاهش دهند و در فضای مجازی، این روش به شناسایی سریعتر الگوهای گفتار نفرتانگیز و تقویت تصمیمهای منصفانه کمک میکند. در مجموع، میتوان نتیجه گرفت که یادگیری فعال پلی است میان یادگیری آماری و قضاوت انسانی؛ ابزاری که به مدلها امکان میدهد نهفقط دقیقتر، بلکه اخلاقیتر و متناسب با واقعیتهای انسانی عمل کنند.
مطالعه موردی اول – ایمنی فیزیکی در تعامل رباتها با انسان
در نخستین مطالعه موردی، پژوهشگران سامانهای چندوجهی با عنوان «M-CoDAL» را برای رباتهای خدمتکار خانگی طراحی کردند. هدف این بود که ربات بتواند موقعیتهای خطرناک را بهدرستی تشخیص دهد و در تعامل با کاربر، رفتار ایمنتری داشته باشد. این سامانه از تصاویر واقعی حاوی موقعیتهای پرخطر استفاده کرد و از طریق مکالمههای تعاملی با کاربر، نحوه واکنش مناسب را آموخت.
نتایج نشان داد که استفاده از الگوریتم خوشهبندی در یادگیری فعال باعث افزایش امتیاز ایمنی از ۷۹/۹۵ به ۸۲/۰۳ شد، در حالیکه مدل مرجع «GPT-۴o» تنها امتیاز ۷۸/۶۵ را کسب کرد. این تفاوت نشان میدهد که مدلهای کوچکتر و تخصصیتر میتوانند در وظایف خاص، همسو و ایمن عمل کنند. از دیدگاه سیاستگذاری، این یافته یک پیام کلیدی دارد. بر همین اساس کوچکسازی هدفمند مدلها میتواند راهی عملی برای همسوسازی اخلاقی هوش مصنوعی باشد.
مطالعه موردی دوم – ترویج گفتوگوی سالم در شبکههای اجتماعی
در مطالعه دوم، پژوهشگران به سراغ فضای مجازی رفتند؛ جایی که آسیبهای روانی ناشی از گفتار نفرتانگیز و اطلاعات گمراهکننده گسترده است. در این پژوهش هدف، طراحی مدلی بود که بتواند در برابر گفتار نفرتانگیز، محتوای متقابل جایگزین، یعنی پاسخهایی مخالف خشونت، متعادلکننده و آموزشی، تولید کند.
در همین راستا، مدل «Flan-T۵» با استفاده از دادههای ترکیبی ردیت و مجموعهای از دادههای سازمانهای غیردولتی، به روش یادگیری فعال بازآموزی شد و در نتیجه اتخاذ این رویکر، خطای مدل برای گروههای اقلیت مانند رنگینپوستان از ۵۲ درصد به ۳۰ درصد کاهش یافت و دقت کلی از ۶۵ درصد به ۷۵/۸ درصد رسید. این دستاورد نه تنها به بهبود کیفیت گفتوگوها در فضای آنلاین کمک میکند، بلکه نمونهای از کاربرد عملی هوش مصنوعی در خدمت کرامت انسانی است.
بازتاب سیاستی و چارچوبهای قانونگذاری
تحولات اخیر در ایالات متحده و اروپا نشان میدهد که دولتها از فاز سیاستگذاری واکنشی و کنترل پسینی، به سمت طراحی سیاستهای پیشنگرانه، پویا و مبتنی بر پیشبینی حرکت میکنند. این تغییر جهت، ناشی از درک جدیدی است که سیاستگذاران نسبت به قدرت تحولآفرین هوش مصنوعی در عرصههای اقتصادی، اجتماعی و حتی امنیتی یافتهاند. دیگر هدف صرفاً تنظیم مقررات برای مهار خطرات نیست؛ بلکه هدف ساختن چارچوبهایی است که نوآوری و مسئولیتپذیری را همزمان پیش ببرند.
بر همین اساس، در سطح جهانی، اتحادیه اروپا با تصویب قانون جامع هوش مصنوعی چارچوبی چندسطحی برای ارزیابی خطرات طراحی کرده که شامل ارزیابی اخلاقی، فنی و اجتماعی است و شرکتها را به شفافسازی در مورد دادههای آموزشی و معماری مدلها وادار میکند. همچنین، کرهجنوبی نیز با قانون «AI Basic Act»، ضمن تأکید بر حکمرانی داده، تعهد شرکتهای خارجی را نسبت به نمایندگی داخلی برای پاسخگویی و تطبیق با استانداردهای بومی الزامی کرده است.
در کنار این موارد برجسته، کشورهایی نظیر ژاپن، کانادا و سنگاپور نیز برنامههای ملی خود را بر محور اعتمادپذیری، شفافیت و همسویی فرهنگی طراحی کردهاند تا اطمینان یابند فناوری نه ابزار سلطه، بلکه عامل توانمندسازی جامعه باشد.
به زعم بسیاری از کارشناسان، این موج جدید قانونگذاری بیانگر یک تحول پارادایمی است: همسویی هوش مصنوعی صرفاً مسئلهای فنی نیست، بلکه ضرورتی حقوقی، فرهنگی و تمدنی محسوب میشود.
جمعبندی: از همسویی فنی تا همسویی انسانی
تحلیل فوق نشان میدهد که مسیر دستیابی به هوش مصنوعی همسو با ارزشهای انسانی، ترکیبی از سه مؤلفه کلیدی است:
1.پیشرفتهای فنی و فناورانه مانند یادگیری فعال، معماریهای تخصصیتر و مدلهای سبک و تطبیقی که قادر هستند در محیطهای واقعی و چندفرهنگی با دقت و حساسیت بیشتری عمل کنند؛
2.حکمرانی هوشمند و قانونگذاری تطبیقی که همزمان از نوآوری حمایت کرده و از بروز آسیبهای اجتماعی، اقتصادی و اخلاقی جلوگیری نماید؛
3.درک عمیق از بافت فرهنگی، ارزشی و اخلاقی جوامع انسانی که تضمین میکند توسعه فناوری در مسیر هنجارهای بومی، عدالت اجتماعی و احترام به کرامت انسان حرکت کند.
این سه محور در واقع سه ضلع یک مثلث هستند که بدون هر یک، دیگری ناکارآمد میشود. پیشرفتهای فنی بدون حکمرانی اخلاقی ممکن است به نابرابری و بیاعتمادی منجر شود؛ همچنین قانونگذاری بدون درک فرهنگی میتواند به سرکوب نوآوری بینجامد و فهم فرهنگی بدون توان فناورانه در عمل بیاثر خواهد بود.
به بیان دیگر، همسویی واقعی زمانی محقق میشود که سیاستگذاران، فناوران، دانشگاهیان و جامعه مدنی در قالب یک اکوسیستم مشارکتی و چندذینفعی همکاری کنند. این اکوسیستم باید بر مبنای شفافیت، پاسخگویی و گفتوگوی بینفرهنگی بنا شود تا تصمیمهای فناورانه از سطوح دولتی تا سطح کاربران نهایی، با درک جمعی بشری همراستا گردد. در نهایت میتوان نتیجه گرفت که مدلهای کوچکتر میتوانند بهتر از مدلهای غولپیکر با ارزشهای انسانی همصدا شوند، به شرط آن که نظام سیاستی و نظارتی درست در کنارشان شکل گیرد و معیارهای انسانی به زبان الگوریتم ترجمه شود.
