رامتین شهرزاد
سامانه لاوندر (lavender یا اسطوخودوس) یکی از هوشهای مصنوعی است که اسرائیل متهم به استفاده از آن در جنگ غزه است. این سامانه با کمک ابزارهای شناخت صورت، مشخص میکند کجا بمباران شود.
گاردین در گزارش «ماشین بهسردی انجامش میدهد: استفاده اسرائیل از هوش مصنوعی برای شناسایی ۳۷هزار هدف حماس» میگوید در نخستین هفتهها و ماههای جنگ، مقامهای نظامی این کشور به هوش مصنوعی اجازه دادهاند تا با شناسایی افراد، محلهای بمباران را مشخص کند و بدین شکل، تعداد گستردهای از افراد متهم به ارتباط یا هواداری از حماس کشته یا زخمی شدهاند.
یکی از نظامیهایی که از این سامانه استفاده کرده به گاردین گفته هر روز چندین مرتبه، «حدودا ۲۰ ثانیه» وقت میگذارد تا تصمیم هوش مصنوعی را تایید کند. او میگوید:
اینجا همه، از جمله خودم، افرادی را در ۷ اکتبر از دست دادیم. ماشین به سردی انجامش میدهد و این کار را ساده میکند.
مجله اسرائیلی و فلسطینی «+۹۷۲» در گزارش پژوهشی «لاوندر: هوش مصنوعی ماشینی بمباران اسرائیل در غزه را هدایت میکند» میگوید واحد اطلاعاتی ۸۲۰۰ اسرائیل استفاده از هوش مصنوعی بدینشکل را مطرح کرده است. نتیجه این شده که حتی افراد دونپایه حماس به هدف بمباران تبدیل شدند، حتی اگر ماشین به اشتباه آنان را شناسایی کرده باشد یا ماشین به اشتباه آنان را عضو یا هوادار حماس تشخیص داده باشد. حتی اگر آنان با دیگر افراد، از جمله سالمندان، کودکان و زنان احاطه شده باشند.
همیشه در تحلیل یا تولیدهای فرهنگی مرتبط به هوش مصنوعی، صحبت از این است که ماشین باید کلید فیزیکی برای خاموش شدن داشته باشد تا بتوان آن را همیشه در کنترل انسان باقی نگهداشت. همزمان صحبت از این بود که ماشین نباید اجازه کنترل اسلحه و انتخاب هدف را داشته باشد. چون بهبیانی ساده، از سامانه لوندر انحراف شروع میشود و درنهایت شاید به آنجا برسیم که ماشینها تمامی بشریت را هدف حمله خود قرار دهند.
ولی چرا نسبت به هوش مصنوعی آنقدر که باید حساس نیستیم؟ شاید چون به این شبکهها معتاد شدهایم. یا آنگونه که مکس فیشر در کتاب «ماشین آشوب: روایتی از درون شرکتهای فنآوری دراینباره که چگونه شبکههای اجتماعی ذهنیتهای ما و دنیای ما را عوض کردند» نوشت:
به مرحلهای رسیدهایم که آنچه را پرطرفدار و از دید احساسی طنینانداز باشد، خیلی بیشتر از آن چیزی میبینیم که واقعیست.
Ad placeholder
هشدارهایی که جدی گرفته نشد: هوش مصنوعی بحران اجتماعی درست میکند
مجمع جهانی اقتصاد در گزارش «خطرات جهانی سال ۲۰۲۴ میلادی: در یک نقطه عطف» مفصل به نقش هوش مصنوعی پرداخته است. در این گزارش، رویدادهای شدید آبوهوایی که از گرمایش زمین شکل گرفتهاند، بزرگترین خطر جهان در این سال معرفی شدهاند. خطر دوم، «خبرهای جعلی و دروغهای تولید هوش مصنوعی» و خطر سوم «چندقطی شدن اجتماعی یا سیاسی» است که به شبکههای اجتماعی و هوش مصنوعی گره خورده است. مجمع جهانی اقتصاد در بخشی از این گزارش نوشته است:
- اطلاعات نادرست و خبرهای جعلی در دو سال آینده بر فرآیندهای انتخاباتی چندین اقتصاد جهان تاثیر خواهند گذاشت.
- بیاعتمادی فزاینده به اطلاعات، و همچنین به رسانهها و دولتها بهعنوان منابع خبری، دیدگاههای قطبی شده را تشدید خواهد کرد – یک چرخه معیوب که میتواند بانی ناآرامیهای مدنی و رویاروییهای اجتماعی شود.
- خطر سکوب و نقض حقوق در این شرایط شکل میگیرد چون مقامات حکومتی بهدنبال سرکوب گسترش اطلاعات نادرست هستند – یا نسبت به آن دست به اقدامی نمیزنند.
مکس فیش در کتاب «ماشین آشوب» روند افراطی شدن و دور شدن ذهنیت ما از واقعیت مشترکمان را این چنین توضیح داده است:
به یاد داشته باشید تعداد ثانیههای یک روز شما تغییر نمیکند. با وجود این، مقدار محتوایی که شبکههای اجتماعی برای کسب آن ثانیههای شما به رقابت مشغولاند، بسته به شیوه مصرف شما، هر سال یا تقریبا در چنین بازه زمانیای، دو برابر میشود. بهعنوان مثال تصور کنید که در یک شبکه اجتماعی ۲۰۰ پست برای شما عرضه میشود هرچند شما وقت توجه به ۱۰۰ پست را دارید. با توجه به جهتگیری این پلتفورم، جنجالیترین نیمه این ۲۰۰ پست را خواهید دید. سال بعد، وقتی این ۲۰۰ پست به ۴۰۰ پست برسد، جنجالیترینهای سه ماهه را یکجا خواهید دید، سال بعد از آن جنجالیترینهای یک هشتم سال را یکجا میبیند. با گذشت زمان، تصور شما از جامعه خود به طور افراطگونهای اخلاقیتر [برابر دیدگاه شخصی شما]، خشمگینتر و آزاردهندهتر میشود و بدینشکل، تصور شما از خودتان هم همزمان متفاوت میشود و دیگر سراغ محتوایی که جنجالی نباشد نمیروید.
شبکههای اجتماعی، بر پایه اعتیاد شکل گرفتهاند. برای همین بهجای مشتری یا واژهیی شبیه به آن، شما مصرفکننده (user) محسوب میشوید. به قول مکس فیشر، استفاده از شبکههای اجتماعی شبیه به اعتیاد به سیگار است. ما را درگیر خود میکند و بهسختی میتوان آن را کنار گذاشت و همزمان ما را به کل متفاوت کرده است: عصبانیتر، افراطیتر، در گروههای کوچکی که افراد همسان خودمان آن را پر کردهاند.
با چنین ذهنیتهای افراطیشده، برای شما باورناپذیر میشود که چگونه میتوان نسلکشی در نوار غزه را نادیده نگرفت یا گرفت. یا برای شما باورناپذیر میشود که چگونه میشود طرفدار اسرائیل بود یا نبود. یا در مثالی به کل متفاوت اما آشناتر، برایتان به کل غریب است که دیگران واکسن میزنند، یا برایتان عجیب است که چرا افرادی واکسن نمیزنند. حبس شده در این ذهنیت، فکر میکنیم باید برای خیر جامعه دست به عمل بزنیم. مثلا باید برویم و از افراد بیحجاب عکس و فیلم بگیریم و در «سامانه ناظر» آن را آپلود کنیم. همه میخواهند بقیه را به بهشت خودشان ببرند، آن هم در جهانی که واقعیت مشترک آن بشدت ضربه خورده است.
عفو بینالملل در چنین فضایی اخیرا نسبت به رویدادهای معاصر هشدار داد و نوشت:
هوش مصنوعی به سرعت در حال خلق تغییر برای ایجاد زمینه مناسب نژادپرستی، تبعیض و تفرقه در این سال تاریخی برای انتخابات عمومی است.
در چنین فضایی است که «هوشمصنوعیگرایی» (AI-tocracy) شکل میگیرد. این عبارت را از شیوه سرکوبگری حکومت چین گرفتهاند. یک مثال آن در پژوهش «هوشمصنوعیسالاری» (یا حاکمیت هوش مصنوعی) فصلنامه ژورنال اقتصادی آکسفورد میتوان یافت که نشان میدهد چگونه هوش مصنوعی از سرکوبهای حکومتی سود میبرد: چون کاربری، بودجه و فضای عمل بیشتری در اختیار هوش مصنوعی قرار میگیرد.
زمان لازم است تا پژوهشگران از مقدار نقش هوش مصنوعی در ناآرامیهای امروز ما بگویند اما میتوان به هشدارهای پژوهشگران و سازمانهای بینالمللی توجه بیشتری نشان داد چون بهنظر میرسد هوش مصنوعی ماشینی، آماده است تا ما را به جان همدیگر بیاندازد.
Ad placeholder