اُپن ای‌آی ممنوعیت استفاده نظامی از چت جی‌پی‌تی را کنار گذاشت

بخش دانش و محیط زیست

در چهارشنبه هفته گذشته، دهم ژانویه / ۲۰ دی، شرکت «اُپن ای‌آی» (OpenAI) در سکوت خبری، بندی را که صریحاً استفاده از «چت جی‌پی‌تی» (ChatGPT) برای مقاصد نظامی و جنگ‌افزاری را منع می‌کرد از مقررات کاربرد این ابزار هوش مصنوعی حذف کرد.

چت جی‌پی‌تی معروف‌ترین ابزار کاربردی رایگان از خانواده «مدل‌های زبانی بزرگ» (Large Language Models، به اختصار: (LLM) است که برای درک، تولید و پاسخگویی به زبان انسان طراحی شده‌اند و می‌توانند الگوهای پیچیده در داده‌های زبانی را پردازش کنند. چت جی‌پی‌تی به کاربران اجازه می‌دهد با ارسال پیام‌واره‌ها (prompts)، متن یا تصویر ساخته هوش مصنوعی دریافت کنند.

بنابر گزارشی که مجله «اینترسپت» منتشر کرده مقررات کاربرد محصولات اپن ای‌آی تا تاریخ دهم ژانویه، حاوی بندی بود که «فعالیت‌های شامل ریسک آسیب جسمی» از جمله «طراحی و ساخت اسلحه» و «فعالیت‌های نظامی و جنگ‌افزاری» را ممنوع می‌کرد.

در نسخه جدید، همچنان منع «فعالیت‌های شامل ریسک آسیب جسمی» حفظ و «طراحی و ساخت اسلحه» به عنوان یکی از مثال‌های آن ذکر شده، اما «فعالیت‌های نظامی و جنگ‌افزاری» از آن حذف شده است.

به نوشته اینترسپت، اپن ای‌آی چندی پیش اعلام کرده بود که قصد بازنویسی مقرراتش را دارد تا آن‌ها «روشن‌تر» و «قابل‌خواندن‌تر» کند. به نظر می‌رسد تغییرات اخیر در جریان این بازنویسی‌ها صورت گرفته‌اند.

https://www.radiozamaneh.com/795393

به گفته نیکو فلیکس، سخنگوی این شرکت،

هدف ما ایجاد مجموعه‌ای از اصول کلّی است که هم یادآوری و هم کاربردشان آسان باشد، به‌ویژه از آن رو که حالا کاربرانی از سراسر جهان، که هر کدامشان می‌توانند یک چت جی‌پی‌تی بسازند، هر روز از ابزارهای ما استفاده می‌کنند.

او در رابطه با بند «آسیب جسمی» به اینترسپت می‌گوید:

اصلی مانند «به دیگران آسیب نزنید» خیلی وسیع است اما در بسترهای بسیاری به‌آسانی فهمیده می‌شود. به علاوه، ما ساخت اسلحه و مجروح‌کردن دیگران را به عنوان مثال‌هایی روشن به کار برده‌ایم.

نویسنده‌ی اینترسپت می‌گوید فلیکس به این پرسش او که آیا «آسیب» شامل همه کاربردهای نظامی می‌شود یا نه، پاسخ روشنی نداده و گفته:

هرگونه استفاده از فناوری ما، از جمله از طرف نیروهای نظامی، برای [ساخت یا کاربرد] سلاح‌ها، [مجروح‌کردن] دیگران یا [تخریب] دارایی‌ها یا [مشارکت در] فعالیت‌های غیرمجازی که امنیت هر خدمات یا سیستمی را نقض کند، ممنوع است.

با وجود تأکید مقررات اپن ای‌آی بر اصل منع آسیب، برخی کارشناسان معتقدند که حذف عبارت «فعالیت‌های نظامی و جنگ‌افزاری» راه را برای عقد قراردادهای سودآور این شرکت با نیروهای نظامی، از جمله ارتش ایالات متحده باز می‌کند.

Ad placeholder

سارا مایرز وست، مدیر اداری مؤسسه AI Now و تحلیلگر سابق سیاستگذاری هوش مصنوعی در کمیسیون فدرال تجارت ایالات متحده، می‌گوید:

نظر به استفاده فزاینده از سیستم‌های هوش مصنوعی در هدف قرار دادن غیرنظامیان در نوار غزه، این لحظه لحظه‌ای حیاتی برای اتخاذ تصمیم به حذف عبارات «فعالیت‌های نظامی و جنگ‌افزاری» از مقررات کاربردهای مجاز اپن ای‌آی بوده است.

مایرز وست می‌گوید زبان به‌کاررفته در مقررات این شرکت همچنان مبهم است و پرسش‌های بسیاری را در رابطه نحوه عملی‌کردن این مقررات پیش می‌کشد.

پیامدهای واقعی این سیاست جدید هنوز معلوم نیست. سال گذشته، اینترسپت گزارش کرده بود که اپن ای‌آی از پاسخ به این سوال که آیا در مواجهه با علاقه فزاینده دستگاه‌های نظامی و امنیتی ایالات متحده به فناوری هوش مصنوعی، همچنان ممنوعیت استفاده نظامی و جنگ‌افزاری را حفظ خواهد کرد یا نه، امتناع کرده بود.

در حالی‌که هیچ‌یک از خدمات اپن ای‌آی توانایی کشتن مستقیم افراد را ندارد – مثلاً نمی‌توان از چت جی‌پی‌تی برای شلیک موشک یا هدایت پهپاد استفاده کرد – اما از مدل‌های زبانی بزرگ مانند چت جی‌پی‌تی می‌توان برای تقویت توانایی کشتن استفاده کرد؛ مثلاً از طریق کدنویسی یا پردازش سفارش‌های خرید تسلیحات.

به طور کلی، از چت جی‌پی‌تی می‌توان در زمینه‌های شناسایی خودکار اهداف، ربات‌سازی نظامی، سیستم‌های توسعه مواد و آزمودن آن‌ها در شبیه‌سازی، پزشکی نظامی، طراحی فضای نبرد، تحلیل امنیتی و اطلاعاتی، رصد سوابق، لجیستیک نظامی، جنگ اطلاعاتی، وسایل نقلیه بی‌راهبر، نظارت و کنترل، مدل‌سازی و شبیه‌سازی مبتنی بر واقعیت مجازی یا واقعیت افزوده، مدل‌سازی نبرد هوایی آزاد، هدایت موشک، ارتباطات، امنیت شبکه، تلفیق داده‌ها برای کنترل هواپیماهای بی‌سرنشین، ماهواره‌ها مبتنی بر هوش مصنوعی، طراحی پوشاک برای پرسنل، مدیریت انبوه داده‌های نظامی و عملیات ضد هوش مصنوعی استفاده کرد.

تحلیلگرانی که اینترسپت از آنان خواسته تغییر مقررات اپن ای‌آی را بررسی کنند به این مجله گفته‌اند که ظاهراً اپن ای‌آی قصد دارد در سکوت خبری، ضدیتش با همکاری با نیروهای نظامی را تعدیل کند.

https://www.radiozamaneh.com/789245

لوسی ساچمن، استاد بازنشسته انسان‌شناسی علم و فناوری در دانشگاه لنکستر می‌گوید:

می‌توانم تصور کنم که عبور از «فعالیت‌های نظامی و جنگ‌افزاری» به «سلاح‌ها» فضایی برای اپن ای‌آی باز می‌کند که از زیرساخت‌های عملیاتی [نظامی] حمایت کند به شرطی که کاربرد این زیرساخت مستقیماً مستلزم طراحی و ساخت سلاح به معنای خاص آن نباشد.

ساچمن، که از دهه ۱۹۷۰ در زمینه هوش مصنوعی تحقیق می‌کند و حالا عضو «کمیته بین‌المللی کنترل تسلیحاتی رباتیک» است، با «ریاکارانه» خواندن کمک به پلتفرم‌های نظامی در عین ادعای مشارکت‌نداشتن در ساخت و کاربرد سلاح‌ها، افزود که چنین ادعایی سیستم اجتماعی-فناورانه‌ و از جمله زیرساخت‌های فرماندهی و کنترل را که همچون بستر ساخت و عملکرد سلاح عمل می‌کند نادیده می‌گیرد.

اپن ای‌آی همچنین شریک نزدیک شرکت مایکروسافت است که خود طرف قرارداد نیروهای نظامی است و ۱۳ میلیارد دلار در اپن ای‌آی سرمایه‌گذاری کرده است.

تغییرات در سیاست‌گذاری‌های اپن ای‌آی در حالی صورت گرفته است که علاقه نیروهای نظامی در سراسر دنیا به استفاده نظامی از فناوری‌های هوش مصنوعی افزایش یافته و می‌توان از آن به عنوان بازاری جدید و پرسود برای شرکت‌های فعال در حوزه هوش مصنوعی یاد کرد.

بر اساس نتایج نقد و بررسی یکی از ربات‌های اجرا شده از سوی چت جی‌پی‌تی، پرسنل ارتش ایالات متحده هم‌اکنون می‌توانند با استفاده از این فناوری برای تسریع کاغذبازی‌های ادارای استفاده کنند. «آژانس ملّی اطلاعات و امنیت جغرافیایی-مکانی» که مستقیماً به اقدامات جنگی ایالات متحده کمک می‌کند، به طور علنی درباره استفاده از چت جی‌پی‌تی برای کمک به تحلیلگران انسانی خود گمانه‌زنی کرده است.

0 FacebookTwitterPinterestEmail

پیام بگذارید

پیام

گالری

ما را دنبال کنید! ​

تماس

  Copyright © 2023, All Rights Reserved Payaam.net