سامانه‌های هوش مصنوعی اسرائیلی و نگاهی به وضعیت آن در حقوق بشر بین الملل
لاوندر؛ الگوریتم کشتار غیرنظامیان

سیدعلی حسینی؛ پژوهشگر رسانه زاویه و کارشناس حوزه حقوق فناوری اطلاعات، اخیراً طی یادداشت در نشریه تخصصی حقوقی «احقاق» به بررسی ابعاد
 حقوق بشری به‌کارگیری سامانه‌های نظامی مبتنی بر هوش مصنوعی رژیم صهیونیستی پرداخته است.
۱- ماشین علیه انسان؛ کشتار خودکار
از آغاز جنگ ۷ اکتبر و تجاوز وحشیانه رژیم صهیونیستی به فلسطین، اخباری مبنی بر استفاده اسرائیل از سامانه های هوش مصنوعی در جنگ و بمباران ساختمان های
 غزه به گوش می‌رسید که بسیاری از افراد حتی در داخل ایران آن را مبنی بر غلو و بزرگنمایی قابلیت های هوش مصنوعی می دانسته و رد می کردند. تا اینکه در تاریخ ۳ آوریل ۲۰۲۴، گزارشی در مجله «+۹۷۲ Magazine and Local Call» توسط «Yuval Abraham» منتشر شد. این گزارش با ۶ منبع ناشناس در دستگاه اطلاعاتی اسرائیل که در واحدهای مرتبط ارتش اسرائیل خدمت می کنند مصاحبه نموده و جزئیات و اطلاعات دقیقی از چندین پروژه هوش مصنوعی که از سال ۲۰۲۱ در وزارت دفاع اسرائیل پایه‌ریزی گردیده و در طی یک سال اخیر مورد استفاده قرار گرفتند، پرده برداشت. همچنین افشای هویت اصلی نویسنده کتاب «تیم انسان-ماشین: چگونه می‌توان هم‌افزایی بین انسان و هوش مصنوعی ایجاد کرد که دنیای ما را متحول کند» که ابتدا با قلم مستعار در سال ۲۰۲۱ به زبان انگلیسی چاپ شده بود، بر اطمینان از صحت وقایع اخیر مهر تأیید زد. در این کتاب که نویسنده اصلی آن فرمانده واحد ۸۲۰۰ یگان ویژه اطلاعاتی ارتش اسرائیل است، «طراحی یک ماشین  (سامانه هوش مصنوعی) که بتواند اهداف نظامی را شناسایی و آن ها
 را با اطمینان بالایی تأیید کند»، نظریه‌پردازی شده است.
با توجه به گسترش سرسام آور اهداف ترور توسط رژیم صهیونیستی از سطح «فرماندهان ارشد» به «تمامی عوامل» حماس و جهاد اسلامی، ارتش رژیم صهیونیستی شناسایی دستی و انسانی همه اهداف ترور را غیرممکن دانست. برهمین اساس سامانه‌های هوش مصنوعی را برای شناسایی و ترور اهداف ترور، طراحی، توسعه و مورد استفاده قرار داد. براساس گزارش مجله +۹۷۲، ارتش اسرائیل از آغاز جنگ اخیر از تاریخ ۷ اکتبر ۲۰۲۳ ، حداقل ۳ سامانه هوش مصنوعی با نام های «لاوندر»، «بابا کجاست»  و «انجیل» استفاده کرده است که با استفاده از فناوری های یادگیری ماشین، یادگیری عمیق و احتمالا بینایی ماشین طراحی و توسعه یافته اند.
سامانه «لاوندر» اطلاعات جمع‌آوری‌شده در مورد بیش از ۲.۳ میلیون نفر ساکن نوار غزه را از طریق یک سیستم نظارت انبوه تجزیه و تحلیل می‌کند و سپس احتمال اینکه هر فرد خاص در شاخه نظامی حماس یا جهاد اسلامی باشد را ارزیابی و رتبه‌بندی می‌کند. این ماشین تقریباً به هر فرد در غزه یک امتیاز از ۱ تا ۱۰۰ می‌دهد که نشان می‌دهد چقدر احتمال دارد که آن‌ها عضو حماس یا جهاد اسلامی باشند.
اطلاعاتی که لاوندر در مرحله یادگیری ماشین با استفاده از آن آموزش دیده است، شامل اطلاعات قطعی و عینی از جمعی از اعضای گروه های حماس و جهاد اسلامی است. از جمله اطلاعات هویتی، شبکه ارتباطات اجتماعی (لیست تماس، علاقه مندیهای شبکه اجتماعی)، اطلاعات مکانی، عادت های ارتباطی (سرویس مخابراتی، تعویض سیمکارت و…). سپس لاوندر پس از راه اندازی، مبتنی بر مدل و الگوریتم خود، ویژگی‌های فوق را در جمعیت عمومی ارزیابی می کند و افرادی که دارای بیشترین امتیاز باشند، به عنوان هدف نهایی ترور معرفی می کند.
فاجعه سامانه لاوندر برای بمباران کودکان و غیرنظامیان فلسطینی، توسط یک سامانه هوش مصنوعی مکمل با نام «بابا کجاست» تکمیل شد. این سامانه، محل سکونت هریک از اهداف مورد نظر را در پایگاه داده خود در اختیار دارد و با تحلیل داده های تصویری، مخابراتی و داده مکانی فرد، ورود وی به خانه‌اش را به اپراتور سیستم اعلان نموده و بمباران محل سکونت را پیشنهاد می دهد.