آدریان آستورگانو
منتشر شده در ال‌سالتو دیایو
ترجمه مجله جنوب جهانی

فیلم‌هایی مانند بلید رانر، ۲۰۰۱: یک ادیسه فضایی، ترمیناتور، ماتریکس یا او، یکی از ترس‌های ریشه‌دار بشر را در پرده سینما بازآفرینی کردند: ترس از گولم شوم، موجودی که از خالق خود رها می‌شود و در نهایت او را نابود می‌کند. اما خطر حادتر از چیزی به قدمت ترکیب قدرت نظامی، منافع اقتصادی و فرصت‌طلبی نظام‌های سیاسی به‌طور فزاینده اقتدارگرا ناشی می‌شود. این ترکیب در بستری رخ می‌دهد، یعنی سرمایه‌داری متاخر، که در آن «خطرات فاجعه‌بار» یک رهایی فرضی ماشین‌ها بیشتر از تأثیرات واقعی این تسلیحات تبلیغ می‌شود، تسلیحاتی که قبلاً توسط ارتش‌هایی مانند ایالات متحده، اسرائیل، روسیه، چین یا ترکیه مورد استفاده قرار گرفته‌اند.

در ۱۸ فوریه، تحقیقی منتشر شده توسط آسوشیتدپرس نشان داد که چگونه استفاده ارتش اسرائیل (تزاهال) از فناوری مایکروسافت و OpenAI به شدت افزایش یافته است. این تحقیق، مبتنی بر «اسناد داخلی، داده‌ها و مصاحبه‌های اختصاصی با مقامات فعلی و سابق اسرائیلی و کارمندان شرکت» اولین مدرک برای چیزی است که ماه‌هاست گزارش شده است: استفاده ارتش اسرائیل از مدل‌های هوش مصنوعی تجاری، مانند GPT، برای ارتکاب کشتار جمعی.
نام‌های این نرم‌افزارها با قابلیت کشتن ده‌ها نفر پس از یک عملیات ساده می‌توانست نام تولیدات سینمایی دیگری باشد: هاسبورا، رپلیکیتور، هایومیند. نام شرکت‌هایی که آن‌ها را ایجاد و در بازار پرهیاهوی هوش مصنوعی امروز می‌فروشند، آشناتر است: پالانتیر، آندوریل یا شیلد ای‌آی. و آن‌ها بدون داده‌های ارائه شده توسط غول‌های فناوری، گوگل، آمازون، مایکروسافت، متا یا OpenAI، که به‌طور فزاینده‌ای مجذوب صدای شمشیرهای دیجیتال شده و سوار بر پروژه فرهنگی، اقتصادی و سیاسی دونالد ترامپ، سزار جدید آمریکایی، شده‌اند، کار نخواهند کرد، حداقل نه با تمام ظرفیت خود.
بحث در محیط پنتاگون در مورد هوش مصنوعی نظامی بر فرضیه‌های استفاده احتمالی مخرب از طریق سلاح‌های CBRN: شیمیایی، بیولوژیکی، رادیولوژیکی و هسته‌ای متمرکز شده است.
جسیکا دورسی، محقق، هیچ تردیدی باقی نمی‌گذارد: «جنگ، حتی با پیشرفت فناوری، همچنان یک اقدام انسانی خواهد بود.» دورسی استاد دانشکده حقوق دانشگاه اوترخت و یکی از مدیران پروژه «واقعیت‌های جنگ الگوریتمی» است، پروژه‌ای که کاربردهای نظری فناوری و عمل انتخاب ماشینی اهداف نظامی را بررسی می‌کند.

این جنگ ماشین‌ها، از طریق الگوریتم‌های قاتل، دسته‌های پهپادهای ترسناک، سیستم‌های اطلاعاتی و امنیت سایبری، از طریق تشخیص چهره، یا از طریق تهدیدات جنگ ترکیبی مانند حملات سایبری یا استفاده از دیپ‌فیک، روش‌های جعل دیجیتال، به عاملی تعیین‌کننده در درگیری‌های مسلحانه تبدیل می‌شود. بنابراین، مسئله این نیست که آیا ماشین‌ها روزی برخواهند خواست تا چکمه خود را بر چهره بشریت بگذارند، بلکه مسئله این است که چگونه از آن‌ها برای به راه انداختن جنگ‌ها، نقض آزادی‌های مدنی و خاموش کردن جمعیت‌های مخالف استفاده می‌شود. استفاده گسترده از آن‌ها توسط نیروهای دفاعی اسرائیل، که سال‌هاست از هوش مصنوعی به عنوان یک «ضریب نیرو» یاد می‌کند، پیامی واضح به جهان می‌فرستد: ماشین کشتار جمعی یک فرضیه نیست، بلکه واقعیتی است که قادر به تغییر جنگ و تسریع نسل‌کشی است.

مزیت ایالات متحده و استفاده گسترده اسرائیل


همانطور که همیشه در مورد جنگ صدق می‌کند، مجتمع نظامی ایالات متحده هم در استفاده —اعدام‌های فراقانونی توسط پهپادها به دوران ریاست جمهوری باراک اوباما در دهه اول قرن بازمی‌گردد— و هم در بحث‌های مربوط به کارایی هوش مصنوعی در درگیری‌ها، پیشتاز است. فاصله بین آنچه آن‌ها در حال حاضر انجام می‌دهند و آنچه در آینده انجام خواهند داد، اندک است، و همین امر در عمل، تمایز بین جنگ الگوریتمی و جنگ از طریق هوش مصنوعی را دشوار می‌کند. برخی می‌گویند که این جدایی معادل زدن یک کلید است، همانطور که جمله‌ای از دیوید پترائوس، رئیس سابق سیا، خلاصه می‌کند: «در نقطه‌ای، یک انسان خواهد گفت: ‹بسیار خب، ماشین. شما آزادید طبق برنامه رایانه‌ای که برایتان تنظیم کرده‌ایم عمل کنید’، به جای اینکه از راه دور آن را هدایت کند.»
«سرعت» در تصمیم‌گیری یکی از اصلی‌ترین مشکلاتی است که کارشناسان غیرنظامی و نظامی به عنوان عاملی تعیین‌کننده در استفاده و سوء استفاده از این ماشین‌های جنگی متفکر به آن اشاره می‌کنند.

با این حال، همانطور که گزارشی از مؤسسه AI Now، که پیامدهای اجتماعی و سیاسی این فناوری را بررسی می‌کند، اشاره می‌کند، بحث در محیط پنتاگون بر فرضیه‌های استفاده احتمالی مخرب از طریق سیستم‌های موسوم به CBRN، که مجموعه سلاح‌های با پتانسیل تخریب جمعی مانند شیمیایی، بیولوژیکی، رادیولوژیکی و هسته‌ای را در بر می‌گیرد، متمرکز شده است. این دیدگاه‌ها، که اغلب فن‌پرستانه هستند و جنبه‌های تاریک و خیالی هوش مصنوعی را برجسته می‌کنند، بر مطالعه کاربردهای فعلی آن، موسوم به ISTAR: اطلاعات، نظارت، انتخاب هدف و شناسایی، غلبه می‌کنند، که عملکرد آن تا حد زیادی مورد بررسی عمومی قرار نمی‌گیرد زیرا هنوز، تقریباً همیشه، یک انسان «در حلقه» تصمیم‌گیری باقی می‌ماند. با این حال، به‌طور فزاینده‌ای، ماشین‌ها به انسان‌ها این امکان را می‌دهند که تصمیمات بیشتری را سریع‌تر از طریق «استفاده نظامی آگاهانه از سیستم‌های پشتیبانی از تصمیم‌گیری مبتنی بر هوش مصنوعی (IA-DSS)» بگیرند.

استفاده از پهپادها هم در اوکراین و هم در خاورمیانه گسترده بوده است. نه تنها در غزه، جایی که واحد جنگ سایبری، واحد ۸۲۰۰ نیروهای مسلح اسرائیل (IDF)، غربالگری اهداف از طریق هوش مصنوعی را تایید کرده است، بلکه در سوریه یا لیبی نیز، فناوری‌های خودکار یا نیمه‌خودکار قادر به انتخاب و کشتن هستند و ارزشی به نام «سرعت» در تصمیم‌گیری ارائه می‌دهند که یکی از مشکلات اصلی است که کارشناسان غیرنظامی و نظامی آن را به عنوان عامل تعیین‌کننده در استفاده و سوءاستفاده از این ماشین‌های جنگی متفکر مطرح می‌کنند. این سرعت همچنین به معنای تعداد بیشتر اشتباهات است.
اندیشکده «شهروند عمومی» در نوامبر ۲۰۲۴ تاکید کرد: «جنگ خودکار تعداد تلفات انسانی را افزایش می‌دهد، خطر حمله به اهداف اشتباه را به شدت بالا می‌برد، غیرنظامیان را بیشتر در معرض خطر قرار می‌دهد و احتمال اینکه پرسنل نظامی که برای تولید فهرست اهداف به الگوریتم‌ها تکیه می‌کنند، احساس گسستگی عاطفی و اخلاقی از حمله‌ای که آن را تایید می‌کنند، تجربه کنند، افزایش می‌دهد.»
یک سال پیش از آن، در نوامبر ۲۰۲۳، تحقیقات رسانه‌های فلسطینی-اسرائیلی «+۹۷۲ مگ» و «لوکال کال» استفاده ارتش اسرائیل از نرم‌افزار «هسبورا» (به معنای واقعی کلمه «انجیل») را برای انتخاب اهداف در غزه فاش کرد. جهش کمی قابل توجه است: اگر پیش از ورود الگوریتم‌ها، ارتش اسرائیل می‌توانست حدود ۵۰ هدف سالانه تعیین کند، در کارزار نسل‌کشی که از اکتبر ۲۰۲۴ آغاز شده است، این حجم به صدها نشانه گذاری روزانه رسیده است.

جسیکا دورسی معتقد است: «باید نقش شرکت‌های فناوری را زیر سوال برد، هیچ پاسخگویی دموکراتیک واقعی از سوی آنها وجود ندارد.»
دورسی و مارتا بو، محقق موسسه بین‌المللی تحقیقات صلح استکهلم (SIPRI)، اشاره می‌کنند: «حجم زیاد اهداف تولید شده، احتمال حملات بیشتر را به شدت افزایش می‌دهد که عمدتاً به دلیل سوگیری عمل شناختی است.» آنها توضیح می‌دهند که این سوگیری «به تمایل انسان به اقدام، حتی زمانی که عدم اقدام از نظر منطقی نتیجه بهتری به دست می‌دهد، اشاره دارد.» این تنها سوگیری نیست که کارشناسان در مورد آن هشدار می‌دهند. دیگری تمایل به پذیرش توصیه ماشین به عنوان درست است، به ویژه در شرایط استرس و محدودیت زمانی؛ این همان چیزی است که سوگیری اتوماسیون نامیده می‌شود.

نقش شرکت‌های سیلیکون ولی

همدستی شرکت‌هایی مانند گوگل، آمازون یا مایکروسافت در این عملیات نسل‌کشی از طریق نرم‌افزارهای هسبورا، لاوندر یا «پدر کجاست؟» (بله، شوخ‌طبعی نسل‌کشانه به همین اندازه مبتکرانه است) توسط کمپین «نه به فناوری برای آپارتاید» افشا شده است. دلیل آن این است که بدون اطلاعات ارائه شده توسط رسانه‌های اجتماعی و داده‌های بزرگ، از طریق توافق‌هایی مانند پروژه نیمبوس که در سال ۲۰۲۱ توسط گوگل و آمازون با مقامات اسرائیلی امضا شد، ارتش اسرائیل توانایی مادی برای انجام کشتاری در این ابعاد را نداشت.

در اوایل فوریه امسال، گوگل تغییری در ارتباطات خود ایجاد کرد و بندی را که در سال ۲۰۱۸ وارد کرده بود و بر اساس آن خود را از توسعه هوش مصنوعی با اهداف نظامی، به ویژه برای تسلیحات و نظارت، منع می‌کرد، حذف کرد. بهانه آنها این بود که دموکراسی‌ها «نمی‌توانند در این نوآوری عقب بمانند». به این ترتیب، شرکتی که توسط لری پیج تاسیس شد، بخش‌های مربوط به عدم ارائه نرم‌افزار برای «سلاح‌ها یا سایر فناوری‌هایی که هدف اصلی یا کاربرد آنها مستقیماً آسیب رساندن یا تسهیل آسیب رساندن به افراد است» و همچنین «فناوری‌هایی که اطلاعات را برای نظارت ناقض استانداردهای بین‌المللی جمع‌آوری یا استفاده می‌کنند» را از تعهدات اخلاقی خود حذف کرد.
با این حال، این تغییر سیاست نبود. تنها دو هفته قبل، واشنگتن پست تحقیقی منتشر کرد که نشان می‌داد چگونه اسرائیل از گوگل خواسته است تا استفاده از سرویسی به نام ورتکس را برای اعمال الگوریتم‌های هوش مصنوعی بر داده‌های خود به فوریت گسترش دهد. اگرچه کاربرد مستقیم این خدمات مشخص نیست، اما همین مقاله اشاره می‌کند که مدیر کل اداره ملی سایبری دولت اسرائیل در یک کنفرانس اظهار داشت که «به لطف ابر عمومی نیمبوس، اتفاقات فوق‌العاده‌ای در طول درگیری‌ها رخ می‌دهد، چیزهایی که نقش مهمی در پیروزی ایفا می‌کنند؛ من وارد جزئیات نخواهم شد.»
اوپن‌ای‌آی (Open AI) نیز گامی در جهت ادغام با دوران جدید قدرت سخت برداشته است. در سال ۲۰۲۴، اوپن‌ای‌آی از بازنگری سیاست‌های اخلاقی خود خبر داد و به جمع پیمانکاران ارتش ایالات متحده پیوست و از طریق نرم‌افزار خود در ماموریت‌های فرماندهی آفریقای ایالات متحده (AFRICOM) شرکت کرد. در ژانویه، شرکت سم آلتمن، مشهورترین شرکت متمرکز بر هوش مصنوعی، از توافق با آندوریل (Anduril)، سازنده موشک، پهپاد و نرم‌افزار برای ارتش ایالات متحده، خبر داد. مدیرعامل این شرکت – که توسط صندوق Founders Fund با مشارکت پیتر تیل تامین مالی می‌شود – تاکید کرد که همکاری با اوپن‌ای‌آی «راه‌حل‌های مسئولانه‌ای ارائه می‌دهد که به اپراتورهای نظامی امکان می‌دهد در سناریوهای پرفشار تصمیمات سریع و دقیق بگیرند.»
به گزارش وایرد (Wired)، آندوریل روی یکی از تسلیحاتی کار می‌کند که به طور بالقوه پیشرفته‌ترین سلاح در کل فهرست هوش مصنوعی نظامی محسوب می‌شود: دسته‌های پهپاد. پهپادها از دهه اول قرن حاضر به واقعیت جنگ تبدیل شده‌اند، اما آینده آنها در تکثیر و هماهنگی آنها از طریق یک مدل زبانی بزرگ (LLM) نهفته است و به طور فزاینده‌ای نقش اپراتور انسانی را به نقش ثانویه تنزل می‌دهد.

در ماه نوامبر، پالانتیر و استارتاپ آنتروپیک توافقی را با آمازون وب سرویسز (AWS) – ابر آمازون، سودآورترین بخش تجاری آن – برای ارائه خدمات کلود، رقیب مدل‌های GPT، اعلام کردند. بار دیگر همان شعار تکرار می‌شود: ارائه ابزارهای پیچیده برای تصمیم‌گیری‌های سریع در زمینه «عملیات حیاتی دولتی»، آن‌طور که خود پالانتیر در وب‌سایتش شرح می‌دهد.
در ماه نوامبر، متا از ورود خود به تجارت جنگ از طریق مدل زبان بزرگ (LLM) خود، لاما، و مشارکتش با اسکیل ای‌آی (Scale AI)، پیمانکار دفاعی موفق، خبر داد. اطلاعات منتشر شده توسط اینترسپت نیز بر نقص‌های محصول شرکت مارک زاکربرگ تاکید داشت.
تحقیقات روبرتو جی. گونزالس برای موسسه واتسون، مبلغ کل قراردادهای امضا شده توسط پنتاگون با شرکت‌های فناوری را ۵۳ میلیارد دلار تخمین زد. به نظر می‌رسد این تازه شروع کار است.

درصد خطای هوش مصنوعی هرگز صفر نخواهد بود

در مقاله‌ای که در اکتبر ۲۰۲۴ منتشر شد، محققان هایدی خلااف و سارا مایرز وست توصیه کردند «برای محدود کردن گسترش تسلیحات هوش مصنوعی، ممکن است لازم باشد سیستم‌های هوش مصنوعی نظامی» از «داده‌های شخصی تجاری» که در اختیار پلتفرم‌های اجتماعی اصلی قرار می‌گیرند، «جدا شوند». جسیکا دورسی معتقد است: «باید نقش شرکت‌های فناوری را زیر سوال برد، زیرا بخش زیادی از گفتمان توسط آنها هدایت می‌شود و هیچ پاسخگویی دموکراتیک واقعی از سوی آنها وجود ندارد.» او می‌افزاید که باید تلاش بیشتری صورت گیرد «تا از شفافیت و پاسخگویی معنادار شرکت‌های فناوری زمانی که سیستم‌های آنها در تلاش‌های جنگی استفاده می‌شوند، اطمینان حاصل شود.»
به نظر برونت، هوش مصنوعی در حال حاضر در مرحله مقدماتی قرار دارد و سه مشکل تعیین‌کننده و بدون راه‌حل در کوتاه‌مدت یا میان‌مدت را حل نکرده است.
پره برونت، استاد زبان‌ها و سیستم‌های کامپیوتری دانشگاه پلی‌تکنیک کاتالونیا، معتقد است که بازنگری در مفهوم ابر و شبکه‌های اجتماعی ضروری است: «دولت‌ها باید از مردم مراقبت کنند و بنابراین، نمی‌توانیم داده‌های خود را در دست بخش خصوصی رها کنیم. و باید تضمین‌هایی وجود داشته باشد که این داده‌ها برای خیر مردم و نه برای اهداف دیگر قابل استفاده باشند.» این محقق این‌گونه خلاصه می‌کند.

برونت از واژه نوظهور «تکنوترافیکرها» برای تعریف شیفتگان هوش مصنوعی که در انواع متون آکادمیک و روزنامه‌نگاری تکثیر شده‌اند، استفاده می‌کند. ستایش‌های غیرانتقادی از این فناوری‌ها در دیدگاه رسانه‌ای غالب در مورد هوش مصنوعی به طور کلی نفوذ کرده و چیزی را که امروزه صرفاً یک نوآوری فناورانه ابتدایی است، به عنوان یک راه‌حل ارائه می‌دهند. تا حد زیادی، هوش مصنوعی فعلی فکر نمی‌کند. بنابراین، هوشمند نیست، بلکه بر اساس آمار و اطلاعات از پیش کدگذاری شده، پیش‌بینی و مدل‌سازی می‌کند. به نظر برونت، هوش مصنوعی در حال حاضر در مرحله مقدماتی قرار دارد و سه مشکل تعیین‌کننده و بدون راه‌حل در کوتاه‌مدت یا میان‌مدت را حل نکرده است؛ همچنین یک عنصر چهارم به همان اندازه مشکل‌ساز که نه به راه‌حل‌های ارائه شده توسط هوش مصنوعی بلکه به الزامات عملکرد آن مربوط می‌شود.

برونت در وهله اول به عدم دقت ذاتی هوش‌های مصنوعی، به ویژه آنهایی که مبتنی بر مدل‌های زبانی بزرگ (LLM) هستند، اشاره می‌کند. برونت، که در حال حاضر در مرکز دلاس برای مطالعات صلح تحقیق می‌کند، توضیح می‌دهد: «درصدی از خطا وجود دارد که هرگز صفر نخواهد بود.» عامل دوم، که شناخته‌شده‌تر است، سوگیری‌ها هستند. این انتقاد در مطالعات و نشریاتی که به نژادپرستی، تبعیض جنسی و سایر انواع تبعیض در استفاده به ظاهر بی‌طرفانه از زبان الگوریتمی می‌پردازند، بیشتر دیده می‌شود. سومین عامل، عدم توضیح‌پذیری فرآیندهایی است که هوش مصنوعی از طریق آنها یک راه‌حل پیشنهاد می‌دهد؛ چیزی که در کوتاه‌مدت پاسخی برای آن وجود ندارد. برونت می‌گوید: «چهارمین مشکل، ردپای زیست‌محیطی است که هر روز بیشتر در مورد آن صحبت می‌شود.»

تخمین زده می‌شود که نیازهای ایجاد شده توسط هوش مصنوعی، مراکز جدیدی با مصرف معادل پنج راکتور انرژی هسته‌ای را ضروری خواهد کرد.

همانطور که او در مقاله‌ای منتشر شده توسط مجمع گذارها (Foro Transiciones) اشاره می‌کند، آهنگ مصرف انرژی هوش مصنوعی هر سال بین ۲۶ تا ۳۶ درصد افزایش می‌یابد و انتشار گازهای گلخانه‌ای معادل آن نیز به صورت هندسی رشد می‌کند. هم آمازون و هم مایکروسافت قبلاً برای دسترسی به انرژی راکتورهای هسته‌ای برای تامین مراکز داده خود به توافق رسیده‌اند و تخمین زده می‌شود که نیازهای ایجاد شده توسط هوش مصنوعی، مراکز جدیدی با مصرف معادل پنج راکتور انرژی هسته‌ای را ضروری خواهد کرد.

چهار عاملی که برونت به آنها اشاره کرد و در مورد کل هوش مصنوعی صدق می‌کند، در مورد مشتق نظامی آن اهمیت ویژه‌ای دارد. با این حال، این واقعیت که هنوز کامل نشده است، از خطر آن نمی‌کاهد. به تفکیک: اولاً، مسئله زیست‌محیطی تحت تأثیر یک شرایط قرار دارد: طبق توافقنامه تغییرات آب و هوایی پاریس (COP21)، دولت‌ها ملزم به محاسبه میزان انتشار گازهای گلخانه‌ای ناشی از بخش نظامی نیستند. بنابراین، با افزایش تقاضا برای محصولات خودکار مبتنی بر الگوریتم‌ها و هوش مصنوعی با کاربردهای نظامی – یا دوگانه – انتشار گازهای عامل بحران آب و هوایی افزایش خواهد یافت، حتی اگر در سایر بخش‌ها به انتشار صفر برسیم.
سه عنصر دیگر که هوش مصنوعی را تعریف می‌کنند نیز در کاربرد نظامی این فناوری‌ها اهمیت بسزایی دارند. اولاً، خطاپذیری به موضوع شوخی برای کارشناسان دفاعی تبدیل شده است. طبق آنچه در انجمن‌های علاقه‌مندان به موشک‌ها برجسته شده است، پرسیدن از سیستم‌های فعلی در مورد اینکه چه نوع سلاح سنگینی باید برای تخریب ساختمان‌ها استفاده شود، نتایج ضعیفی به دست می‌دهد. اما عامل اصلی خطر در این زمینه، انتخاب اهدافی است که در حال حاضر از طریق سیستم‌های الگوریتمی انجام می‌شود: هم احتمال اشتباه در شناسایی و هم اینکه هیچ‌کس هرگز پاسخگوی این اشتباهات نیست. یکی از اشتباهاتی که مقاله آسوشیتدپرس منتشر شده در ۱۸ فوریه به آن اشاره می‌کند، از نوع زبانی است، یک ترجمه ماشینی نادرست از عربی به عبری که منجر به انتخاب اشتباه اهداف شد.

دورسی نتیجه می‌گیرد: «سرعتی که فناوری با آن توسعه می‌یابد و وسواس ظاهری به «نیاز به سرعت»، مانع یا تضعیف یک گفتگوی حیاتی می‌شود.»

در واقع، اطلاعات ارائه شده توسط خود ارتش اسرائیل دقت ۹۰ درصدی اهداف را تایید می‌کند، که معادل اعتراف به این است که از هر ده قتل فراقانونی، جان یک بی‌گناه گرفته می‌شود. کاربرد نظامی هوش مصنوعی به این ترتیب منجر به تعداد بیشتری از اشتباهات ناشی از شناسایی ضعیف، و با سوگیری‌های نژادپرستانه و جنسیتی، یا به این دلیل می‌شود که هیچ مسئول نهایی وجود ندارد، که رفتار غیرمسئولانه را تشویق می‌کند.
دورسی مقداری ابهام‌زدایی در مورد سخنان این تکنوترافیکرها در مورد کاربرد هوش مصنوعی وارد می‌کند: «اگرچه اغلب وعده داده می‌شود که این سیستم‌ها «موثرتر» یا «دقیق‌تر» هستند، واقعیت در میدان جنگ داستان متفاوتی را تأیید می‌کند: اگر این سیستم‌ها برای ریشه‌کن کردن تهدید حماس، برای مثال، دقیق‌تر یا موثرتر بودند، جنگ اینقدر طولانی نمی‌شد و آسیب به غزه، برای مثال، اینقدر بزرگ نبود. سطح آسیب به غیرنظامیان فاجعه‌بار و، همانطور که عفو بین‌الملل در دسامبر نتیجه‌گیری کرد، نسل‌کشانه است. این سیستم‌ها تصورات نادرست از تعهدات و تفاسیر قانونی را تشدید می‌کنند و امکان تخریب با سرعت و مقیاس بالا را فراهم می‌کنند.» این محقق حوزه واقعیت‌های جنگ الگوریتمی توضیح می‌دهد.
عامل سوم، عدم توضیح‌پذیری تصمیمات، هنگامی که در زمینه نظامی به کار می‌رود، اهمیت شومی پیدا می‌کند. سیستم‌ها برای توضیح مراحل طی شده در پیشنهاد تصمیمات خود طراحی نشده‌اند. این بدان معناست که پاسخگویی حتی دشوارتر از آن چیزی است که در حال حاضر در حوزه نظامی وجود دارد.

وضعیت مقررات

دوره دوم ریاست جمهوری دونالد ترامپ در کاخ سفید، همانطور که انتظار می‌رفت، با لغو اقدامات حفاظتی و ایمنی برای سیستم‌های هوش مصنوعی – دستور اجرایی اکتبر ۲۰۲۳ که توسط ریاست جمهوری جو بایدن تصویب شده بود – و صدور دستور جدیدی برای «رفع موانع» نوآوری به منظور، از جمله اهداف دیگر، «امنیت ملی» آغاز شده است. ترامپ همچنین دیوید ساکس، تاجر آفریقایی-آمریکایی و یکی از اعضای گروه غیررسمی «مافیای پی‌پال» (که ایلان ماسک و پیتر تیل از آن بیرون آمدند) را به عنوان مسئول سیاست‌های مربوط به هوش مصنوعی منصوب کرده است.

هوش مصنوعی

در ژانویه سال جاری، ترامپ به همراه رهبران اوپن‌ای‌آی، اوراکل و سافت‌بانک، راه‌اندازی پروژه استارگیت را اعلام کرد، پروژه‌ای ۵۰۰ میلیارد دلاری که هدف آن حفاظت از امنیت ملی ایالات متحده و متحدانش است.
پورتال تک پالیسی پیش‌بینی کرد که دولت جدید استفاده «شدید» از این سیستم‌ها را، همچنین برای نظارت و کنترل جمعیت و نیز برای «اخراج دسته‌جمعی» که به توم هومان، تزار ضد مهاجرت، سپرده شده است، در دستور کار قرار خواهد داد.
صندوق‌های سرمایه‌گذاری خطرپذیر در سال‌های اخیر سرمایه‌گذاری خود را در فناوری دفاعی افزایش داده‌اند و خود شرکت‌های فناوری نیز به دنبال سود بیشتر به سمت «امنیت» تغییر جهت داده‌اند. با قرار گرفتن ایالات متحده در نوک پیکان این صنعت تسلیحاتی جدید، بعید است که سایر قدرت‌های بین‌المللی احتیاط پیشه کنند. علیرغم استفاده روزافزون از هوش مصنوعی، قانون هوش مصنوعی اتحادیه اروپا که در سال ۲۰۲۴ به اجرا درآمد، کاربردهای نظامی یا امنیت ملی هوش مصنوعی را در نظر نمی‌گیرد. جسیکا دورسی، محقق، در پاسخ‌های خود به ال سالتو اشاره می‌کند که اتحادیه اروپا در این زمینه اقدام خاصی انجام نداده است. مسئول گروه مطالعات واقعیت‌های جنگ الگوریتمی می‌گوید: «نیاز به کار بسیار بیشتری برای پرداختن به هوش مصنوعی نظامی از منظر اروپایی وجود دارد.»

از جمله پیشنهادات این است که پهپادها و ربات‌های انتحاری برچسبی داشته باشند که یک انسان را مسئول استفاده از آنها اعلام کند، به عنوان راهی برای جلوگیری از کشتار بی‌حد و حصری که به نظر می‌رسد استفاده از این سیستم‌ها آن را تسهیل می‌کند.

در ژوئیه ۲۰۲۳، دبیرکل سازمان ملل متحد، آنتونیو گوترش، از کشورها خواست تا قبل از سال ۲۰۲۶ یک «ابزار حقوقی الزام‌آور برای ممنوعیت سیستم‌های تسلیحاتی خودمختار مرگبار که بدون کنترل یا نظارت انسانی عمل می‌کنند و نمی‌توان از آنها در انطباق با حقوق بین‌الملل بشردوستانه استفاده کرد» را تصویب کنند. کمیته بین‌المللی صلیب سرخ نیز خواستار ممنوعیت سیستم‌هایی شده است که درک یا توضیح آنها بیش از حد پیچیده است و فاقد سطح معینی از کنترل توسط انسان هستند. با این حال، اراده برای دستیابی به این توافق ممکن است در برابر پتانسیل مخرب هوش مصنوعی بر نظم بین‌المللی مبتنی بر قوانین متزلزل، کافی نباشد.
همانطور که اشاره شد، خطرات استفاده از هوش مصنوعی مستقیماً حقوق بین‌الملل بشردوستانه و حقوق بین‌الملل حقوق بشر را تهدید می‌کند. در مورد حقوق بین‌الملل بشردوستانه، بیم آن می‌رود که به طور پیش‌فرض پایین‌ترین سطوح حفاظت اعمال شود، همانطور که بریانا روزن آن را محکوم می‌کند. از جمله پیشنهادات سازمان‌هایی که نسبت به پیشرفت کنترل‌نشده این فناوری هشدار می‌دهند، این است که پهپادها و ربات‌های انتحاری برچسبی داشته باشند که یک انسان را مسئول استفاده از آنها اعلام کند، به عنوان راهی برای جلوگیری از کشتار بی‌حد و حصری که به نظر می‌رسد استفاده از این سیستم‌ها آن را تسهیل می‌کند.

از سوی جاست سکیوریتی (Just Security) همچنین توصیه می‌شود که عملیات پهپادی باید توسط دو نفر نظارت و تایید شود – به سبک پروتکل‌های استفاده از سلاح‌های هسته‌ای – و همچنین سیستم‌های حسابرسی و تأیید افزایش یابد. به نظر می‌رسد شفافیت و پاسخگویی تنها راهکارهای کاهش خطرات استفاده از هوش مصنوعی نظامی هستند.
دورسی نتیجه می‌گیرد: «چالشی که امروز با آن روبرو هستیم این است که پیشرفت‌های فناوری هوش مصنوعی انسان‌ها را به حاشیه تصمیم‌گیری سوق می‌دهد، که سوالاتی را در مورد جایگاه آنها در جنگ مطرح می‌کند. این سوالات وجودی مستحق تحقیق و بحث بسیار بیشتری هستند، اما سرعتی که فناوری با آن توسعه می‌یابد و وسواس ظاهری به «نیاز به سرعت»، مانع یا تضعیف چنین گفتگوی حیاتی می‌شود.» همانطور که پره برونت یادآوری می‌کند، غیرانسانی‌سازی که منجر به استفاده از ماشین‌ها برای نابودی می‌شود، ناشی از انسان‌ها است، نه هوش‌های مصنوعی یا الگوریتم‌ها، و وظیفه بشریت است که در برابر تهدیداتی که امروز بر همه ملت‌ها سایه افکنده است، همکاری کند، «نه تغییرات آب و هوایی، نه همه‌گیری‌ها و نه سیل‌ها مرز نمی‌شناسند. بنابراین، شاید لازم باشد پارادایم را تغییر دهیم و پولی را که به امور نظامی اختصاص داده می‌شود، به این مسائل اختصاص دهیم.» این محقق نتیجه‌گیری می‌کند.