بخش خبر
بیانیه کارشناسان سازمان ملل در واکنش به گزارشهایی منتشر شد که نشان میدهد دستکم سه سیستم هوش مصنوعی موسوم به «انجیل»(Gospel)، «اسطوخودوس»(Lavender) و «بابا کجاست؟»(Where’s Daddy?) را برای «تخریب سیستماتیک و گسترده خانهها، خدمات و زیرساختهای غیرنظامی» در غزه بهکار گرفته است. آنها این عمل را که «دومیسید» (Domicide) یا تخریب سیستماتیک خانهها خوانده میشود، جنایت علیه بشریت خواندند.
بن سائول، گزارشگر ویژه سازمان ملل در امور حقوق بشر و مبارزه با تروریسم، گفت: «اگر جزئیات گزارش صحت داشته باشد، بسیاری از حملات اسرائیل در غزه، بهسبب حملات نامتناسب جنایت جنگی خواهد بود.»
کارشناسان در این بیانیه گفتند:
شش ماه پس از حمله نظامی جاری، اکنون در مقایسه با هر گونه درگیری دیگر در غزه درصد بیشتری از مسکنها و زیرساختهای غیرنظامی در غزه تخریب شده است.
آنها همچنین ابراز نگرانی کردند که استفاده ارتش اسرائیل از هوش مصنوعی با «کاهش دقت انسانی برای جلوگیری یا به حداقل رساندن تلفات غیرنظامیان» ترکیب شده است.
دو رسانه اسرائيلی پیشتر در یک گزارش تحقیقی استفاده ارتش از سیستم کمکی هوش مصنوعی به نام اسطوخودوس را به نقل از شش افسر اطلاعاتی اسرائیل که در جنگ کنونی در ارتش حضور دارند و برای نخستینبار از این سیستم استفاده کردهاند تأیید کرده بودند.
آنها به وبسایت خبری اسرائیلی ــ فلسطینی «مجله +۹۷۲» (+972) و وبسایت خبری اسرائیلی «لوکال کال» (Local Call) گفته بودند که ارتش بهویژه در مراحل ابتدایی جنگ غزه پس از هفتم اکتبر این سامانه هوش مصنوعی را بهکار برده است.
این سامانه که برای شناسایی اهداف بهکار گرفته شده، به گونهای طراحی شده که تمام افراد مظنون به عضویت در شاخههای نظامی حماس و جهاد اسلامی، از جمله نیروهای ردهپایین را بهعنوان هدفهای بمباران در نظر میگیرد. منابع ارتش فاش کردهاند که ۳۷ هزار فلسطینی و خانههای آنها بهعنوان هدف برای حملههای هوایی احتمالی در این سیستم نشانهگذاری شدهاند.
بر اساس یافتههای این گزارش تحقیقی در هفتههای ابتدایی جنگ غزه، «تلفات جانبی» ۱۵ تا ۲۰ غیرنظامی به ازای هدف قرار دادن یک عضو ردهپایین حماس، و تا ۱۰۰ غیرنظامی به ازای یک افسر ردهبالای حماس مجاز اعلام شده بود. اگر مقامهای ارشد حماس هدف قرار میگرفتند، نیروهای ارتش اجازه داشتند غیرنظامیان بیشتری را بکشند. طبق این گزارش تحقیقی، ارتش در چندین نوبت اجازه کشتن بیش از ۱۰۰ غیرنظامی را در ترور یک فرمانده داده است.
مارک اوون جونز، استادیار مطالعات خاورمیانه و علوم انسانی دیجیتال در دانشگاه حمید بن خلیفه، به شبکه الجزیره گفت:
آشکار شده که ارتش اسرائیل سیستمهای هوش مصنوعی آزمایشنشده را برای کمک به تصمیمگیری درباره زندگی و مرگ غیرنظامیان بهکار برده است. بیایید روراست باشیم: این یک نسلکشی با کمک هوش مصنوعی است و در آینده، باید برای توقف استفاده از هوش مصنوعی در جنگ اقدام کنیم.
آنتونی لوونشتاین، روزنامهنگار استرالیایی و نویسنده کتاب «آزمایشگاه فلسطین: چگونه اسرائیل فناوری اشغالگری را به سراسر جهان صادر میکند» نیز در این رابطه گفته است: «اسرائیل در حال حاضر تلاش میکند این ابزارها را به نهادهای خارجی بفروشد، به دولتهایی که کارهای اسرائیل در غزه را دنبال میکنند، نه با انزجار، بلکه با تحسین.» به گفته او در ماهها و سالهای آینده خواهیم فهمید که چه کشورهایی خریدار فناوری اشغالگری اسرائیل هستند.
در پاسخ به انتقادات گسترده به اسرائیل، ارتش اسرائیل مطابق روند معمول پاسخ داده که تحلیلگرانش باید «بررسیهای مستقل» را انجام دهند تا تأیید کنند که آیا اهداف شناسایی شده مطابق با قوانین بینالمللی و محدودیتهای اضافی تعیینشده توسط نیروهایش، تعاریف مربوطه را برآورده کردهاند.
ارتش اسرائیل همزمان با بالاگرفتن تنشها میان تلآویو و تهران به بمباران غزه و حمله به کرانه باختری اشغالی ادامه میدهد. وزارت بهداشت غزه ۲۸ فروردین / ۱۶ آوریل اعلام کرد که تعداد کشتهشدگان در غزه از هفتم اکتبر گذشته تاکنون به ۳۳٬۸۴۳ نفر و تعداد مجروحان هم به ۷۶٬۵۷۵ نفر رسیده است.