سامانههای هوش مصنوعی اسرائیلی و نگاهی به وضعیت آن در حقوق بشر بین الملل
لاوندر؛ الگوریتم کشتار غیرنظامیان
سیدعلی حسینی؛ پژوهشگر رسانه زاویه و کارشناس حوزه حقوق فناوری اطلاعات، اخیراً طی یادداشت در نشریه تخصصی حقوقی «احقاق» به بررسی ابعاد
حقوق بشری بهکارگیری سامانههای نظامی مبتنی بر هوش مصنوعی رژیم صهیونیستی پرداخته است.
۱- ماشین علیه انسان؛ کشتار خودکار
از آغاز جنگ ۷ اکتبر و تجاوز وحشیانه رژیم صهیونیستی به فلسطین، اخباری مبنی بر استفاده اسرائیل از سامانه های هوش مصنوعی در جنگ و بمباران ساختمان های
غزه به گوش میرسید که بسیاری از افراد حتی در داخل ایران آن را مبنی بر غلو و بزرگنمایی قابلیت های هوش مصنوعی می دانسته و رد می کردند. تا اینکه در تاریخ ۳ آوریل ۲۰۲۴، گزارشی در مجله «+۹۷۲ Magazine and Local Call» توسط «Yuval Abraham» منتشر شد. این گزارش با ۶ منبع ناشناس در دستگاه اطلاعاتی اسرائیل که در واحدهای مرتبط ارتش اسرائیل خدمت می کنند مصاحبه نموده و جزئیات و اطلاعات دقیقی از چندین پروژه هوش مصنوعی که از سال ۲۰۲۱ در وزارت دفاع اسرائیل پایهریزی گردیده و در طی یک سال اخیر مورد استفاده قرار گرفتند، پرده برداشت. همچنین افشای هویت اصلی نویسنده کتاب «تیم انسان-ماشین: چگونه میتوان همافزایی بین انسان و هوش مصنوعی ایجاد کرد که دنیای ما را متحول کند» که ابتدا با قلم مستعار در سال ۲۰۲۱ به زبان انگلیسی چاپ شده بود، بر اطمینان از صحت وقایع اخیر مهر تأیید زد. در این کتاب که نویسنده اصلی آن فرمانده واحد ۸۲۰۰ یگان ویژه اطلاعاتی ارتش اسرائیل است، «طراحی یک ماشین (سامانه هوش مصنوعی) که بتواند اهداف نظامی را شناسایی و آن ها
را با اطمینان بالایی تأیید کند»، نظریهپردازی شده است.
با توجه به گسترش سرسام آور اهداف ترور توسط رژیم صهیونیستی از سطح «فرماندهان ارشد» به «تمامی عوامل» حماس و جهاد اسلامی، ارتش رژیم صهیونیستی شناسایی دستی و انسانی همه اهداف ترور را غیرممکن دانست. برهمین اساس سامانههای هوش مصنوعی را برای شناسایی و ترور اهداف ترور، طراحی، توسعه و مورد استفاده قرار داد. براساس گزارش مجله +۹۷۲، ارتش اسرائیل از آغاز جنگ اخیر از تاریخ ۷ اکتبر ۲۰۲۳ ، حداقل ۳ سامانه هوش مصنوعی با نام های «لاوندر»، «بابا کجاست» و «انجیل» استفاده کرده است که با استفاده از فناوری های یادگیری ماشین، یادگیری عمیق و احتمالا بینایی ماشین طراحی و توسعه یافته اند.
سامانه «لاوندر» اطلاعات جمعآوریشده در مورد بیش از ۲.۳ میلیون نفر ساکن نوار غزه را از طریق یک سیستم نظارت انبوه تجزیه و تحلیل میکند و سپس احتمال اینکه هر فرد خاص در شاخه نظامی حماس یا جهاد اسلامی باشد را ارزیابی و رتبهبندی میکند. این ماشین تقریباً به هر فرد در غزه یک امتیاز از ۱ تا ۱۰۰ میدهد که نشان میدهد چقدر احتمال دارد که آنها عضو حماس یا جهاد اسلامی باشند.
اطلاعاتی که لاوندر در مرحله یادگیری ماشین با استفاده از آن آموزش دیده است، شامل اطلاعات قطعی و عینی از جمعی از اعضای گروه های حماس و جهاد اسلامی است. از جمله اطلاعات هویتی، شبکه ارتباطات اجتماعی (لیست تماس، علاقه مندیهای شبکه اجتماعی)، اطلاعات مکانی، عادت های ارتباطی (سرویس مخابراتی، تعویض سیمکارت و…). سپس لاوندر پس از راه اندازی، مبتنی بر مدل و الگوریتم خود، ویژگیهای فوق را در جمعیت عمومی ارزیابی می کند و افرادی که دارای بیشترین امتیاز باشند، به عنوان هدف نهایی ترور معرفی می کند.
فاجعه سامانه لاوندر برای بمباران کودکان و غیرنظامیان فلسطینی، توسط یک سامانه هوش مصنوعی مکمل با نام «بابا کجاست» تکمیل شد. این سامانه، محل سکونت هریک از اهداف مورد نظر را در پایگاه داده خود در اختیار دارد و با تحلیل داده های تصویری، مخابراتی و داده مکانی فرد، ورود وی به خانهاش را به اپراتور سیستم اعلان نموده و بمباران محل سکونت را پیشنهاد می دهد.