
آدریان آستورگانو
منتشر شده در السالتو دیایو
ترجمه مجله جنوب جهانی
فیلمهایی مانند بلید رانر، ۲۰۰۱: یک ادیسه فضایی، ترمیناتور، ماتریکس یا او، یکی از ترسهای ریشهدار بشر را در پرده سینما بازآفرینی کردند: ترس از گولم شوم، موجودی که از خالق خود رها میشود و در نهایت او را نابود میکند. اما خطر حادتر از چیزی به قدمت ترکیب قدرت نظامی، منافع اقتصادی و فرصتطلبی نظامهای سیاسی بهطور فزاینده اقتدارگرا ناشی میشود. این ترکیب در بستری رخ میدهد، یعنی سرمایهداری متاخر، که در آن «خطرات فاجعهبار» یک رهایی فرضی ماشینها بیشتر از تأثیرات واقعی این تسلیحات تبلیغ میشود، تسلیحاتی که قبلاً توسط ارتشهایی مانند ایالات متحده، اسرائیل، روسیه، چین یا ترکیه مورد استفاده قرار گرفتهاند.
در ۱۸ فوریه، تحقیقی منتشر شده توسط آسوشیتدپرس نشان داد که چگونه استفاده ارتش اسرائیل (تزاهال) از فناوری مایکروسافت و OpenAI به شدت افزایش یافته است. این تحقیق، مبتنی بر «اسناد داخلی، دادهها و مصاحبههای اختصاصی با مقامات فعلی و سابق اسرائیلی و کارمندان شرکت» اولین مدرک برای چیزی است که ماههاست گزارش شده است: استفاده ارتش اسرائیل از مدلهای هوش مصنوعی تجاری، مانند GPT، برای ارتکاب کشتار جمعی.
نامهای این نرمافزارها با قابلیت کشتن دهها نفر پس از یک عملیات ساده میتوانست نام تولیدات سینمایی دیگری باشد: هاسبورا، رپلیکیتور، هایومیند. نام شرکتهایی که آنها را ایجاد و در بازار پرهیاهوی هوش مصنوعی امروز میفروشند، آشناتر است: پالانتیر، آندوریل یا شیلد ایآی. و آنها بدون دادههای ارائه شده توسط غولهای فناوری، گوگل، آمازون، مایکروسافت، متا یا OpenAI، که بهطور فزایندهای مجذوب صدای شمشیرهای دیجیتال شده و سوار بر پروژه فرهنگی، اقتصادی و سیاسی دونالد ترامپ، سزار جدید آمریکایی، شدهاند، کار نخواهند کرد، حداقل نه با تمام ظرفیت خود.
بحث در محیط پنتاگون در مورد هوش مصنوعی نظامی بر فرضیههای استفاده احتمالی مخرب از طریق سلاحهای CBRN: شیمیایی، بیولوژیکی، رادیولوژیکی و هستهای متمرکز شده است.
جسیکا دورسی، محقق، هیچ تردیدی باقی نمیگذارد: «جنگ، حتی با پیشرفت فناوری، همچنان یک اقدام انسانی خواهد بود.» دورسی استاد دانشکده حقوق دانشگاه اوترخت و یکی از مدیران پروژه «واقعیتهای جنگ الگوریتمی» است، پروژهای که کاربردهای نظری فناوری و عمل انتخاب ماشینی اهداف نظامی را بررسی میکند.
این جنگ ماشینها، از طریق الگوریتمهای قاتل، دستههای پهپادهای ترسناک، سیستمهای اطلاعاتی و امنیت سایبری، از طریق تشخیص چهره، یا از طریق تهدیدات جنگ ترکیبی مانند حملات سایبری یا استفاده از دیپفیک، روشهای جعل دیجیتال، به عاملی تعیینکننده در درگیریهای مسلحانه تبدیل میشود. بنابراین، مسئله این نیست که آیا ماشینها روزی برخواهند خواست تا چکمه خود را بر چهره بشریت بگذارند، بلکه مسئله این است که چگونه از آنها برای به راه انداختن جنگها، نقض آزادیهای مدنی و خاموش کردن جمعیتهای مخالف استفاده میشود. استفاده گسترده از آنها توسط نیروهای دفاعی اسرائیل، که سالهاست از هوش مصنوعی به عنوان یک «ضریب نیرو» یاد میکند، پیامی واضح به جهان میفرستد: ماشین کشتار جمعی یک فرضیه نیست، بلکه واقعیتی است که قادر به تغییر جنگ و تسریع نسلکشی است.
مزیت ایالات متحده و استفاده گسترده اسرائیل
همانطور که همیشه در مورد جنگ صدق میکند، مجتمع نظامی ایالات متحده هم در استفاده —اعدامهای فراقانونی توسط پهپادها به دوران ریاست جمهوری باراک اوباما در دهه اول قرن بازمیگردد— و هم در بحثهای مربوط به کارایی هوش مصنوعی در درگیریها، پیشتاز است. فاصله بین آنچه آنها در حال حاضر انجام میدهند و آنچه در آینده انجام خواهند داد، اندک است، و همین امر در عمل، تمایز بین جنگ الگوریتمی و جنگ از طریق هوش مصنوعی را دشوار میکند. برخی میگویند که این جدایی معادل زدن یک کلید است، همانطور که جملهای از دیوید پترائوس، رئیس سابق سیا، خلاصه میکند: «در نقطهای، یک انسان خواهد گفت: ‹بسیار خب، ماشین. شما آزادید طبق برنامه رایانهای که برایتان تنظیم کردهایم عمل کنید’، به جای اینکه از راه دور آن را هدایت کند.»
«سرعت» در تصمیمگیری یکی از اصلیترین مشکلاتی است که کارشناسان غیرنظامی و نظامی به عنوان عاملی تعیینکننده در استفاده و سوء استفاده از این ماشینهای جنگی متفکر به آن اشاره میکنند.
با این حال، همانطور که گزارشی از مؤسسه AI Now، که پیامدهای اجتماعی و سیاسی این فناوری را بررسی میکند، اشاره میکند، بحث در محیط پنتاگون بر فرضیههای استفاده احتمالی مخرب از طریق سیستمهای موسوم به CBRN، که مجموعه سلاحهای با پتانسیل تخریب جمعی مانند شیمیایی، بیولوژیکی، رادیولوژیکی و هستهای را در بر میگیرد، متمرکز شده است. این دیدگاهها، که اغلب فنپرستانه هستند و جنبههای تاریک و خیالی هوش مصنوعی را برجسته میکنند، بر مطالعه کاربردهای فعلی آن، موسوم به ISTAR: اطلاعات، نظارت، انتخاب هدف و شناسایی، غلبه میکنند، که عملکرد آن تا حد زیادی مورد بررسی عمومی قرار نمیگیرد زیرا هنوز، تقریباً همیشه، یک انسان «در حلقه» تصمیمگیری باقی میماند. با این حال، بهطور فزایندهای، ماشینها به انسانها این امکان را میدهند که تصمیمات بیشتری را سریعتر از طریق «استفاده نظامی آگاهانه از سیستمهای پشتیبانی از تصمیمگیری مبتنی بر هوش مصنوعی (IA-DSS)» بگیرند.
استفاده از پهپادها هم در اوکراین و هم در خاورمیانه گسترده بوده است. نه تنها در غزه، جایی که واحد جنگ سایبری، واحد ۸۲۰۰ نیروهای مسلح اسرائیل (IDF)، غربالگری اهداف از طریق هوش مصنوعی را تایید کرده است، بلکه در سوریه یا لیبی نیز، فناوریهای خودکار یا نیمهخودکار قادر به انتخاب و کشتن هستند و ارزشی به نام «سرعت» در تصمیمگیری ارائه میدهند که یکی از مشکلات اصلی است که کارشناسان غیرنظامی و نظامی آن را به عنوان عامل تعیینکننده در استفاده و سوءاستفاده از این ماشینهای جنگی متفکر مطرح میکنند. این سرعت همچنین به معنای تعداد بیشتر اشتباهات است.
اندیشکده «شهروند عمومی» در نوامبر ۲۰۲۴ تاکید کرد: «جنگ خودکار تعداد تلفات انسانی را افزایش میدهد، خطر حمله به اهداف اشتباه را به شدت بالا میبرد، غیرنظامیان را بیشتر در معرض خطر قرار میدهد و احتمال اینکه پرسنل نظامی که برای تولید فهرست اهداف به الگوریتمها تکیه میکنند، احساس گسستگی عاطفی و اخلاقی از حملهای که آن را تایید میکنند، تجربه کنند، افزایش میدهد.»
یک سال پیش از آن، در نوامبر ۲۰۲۳، تحقیقات رسانههای فلسطینی-اسرائیلی «+۹۷۲ مگ» و «لوکال کال» استفاده ارتش اسرائیل از نرمافزار «هسبورا» (به معنای واقعی کلمه «انجیل») را برای انتخاب اهداف در غزه فاش کرد. جهش کمی قابل توجه است: اگر پیش از ورود الگوریتمها، ارتش اسرائیل میتوانست حدود ۵۰ هدف سالانه تعیین کند، در کارزار نسلکشی که از اکتبر ۲۰۲۴ آغاز شده است، این حجم به صدها نشانه گذاری روزانه رسیده است.
جسیکا دورسی معتقد است: «باید نقش شرکتهای فناوری را زیر سوال برد، هیچ پاسخگویی دموکراتیک واقعی از سوی آنها وجود ندارد.»
دورسی و مارتا بو، محقق موسسه بینالمللی تحقیقات صلح استکهلم (SIPRI)، اشاره میکنند: «حجم زیاد اهداف تولید شده، احتمال حملات بیشتر را به شدت افزایش میدهد که عمدتاً به دلیل سوگیری عمل شناختی است.» آنها توضیح میدهند که این سوگیری «به تمایل انسان به اقدام، حتی زمانی که عدم اقدام از نظر منطقی نتیجه بهتری به دست میدهد، اشاره دارد.» این تنها سوگیری نیست که کارشناسان در مورد آن هشدار میدهند. دیگری تمایل به پذیرش توصیه ماشین به عنوان درست است، به ویژه در شرایط استرس و محدودیت زمانی؛ این همان چیزی است که سوگیری اتوماسیون نامیده میشود.
نقش شرکتهای سیلیکون ولی
همدستی شرکتهایی مانند گوگل، آمازون یا مایکروسافت در این عملیات نسلکشی از طریق نرمافزارهای هسبورا، لاوندر یا «پدر کجاست؟» (بله، شوخطبعی نسلکشانه به همین اندازه مبتکرانه است) توسط کمپین «نه به فناوری برای آپارتاید» افشا شده است. دلیل آن این است که بدون اطلاعات ارائه شده توسط رسانههای اجتماعی و دادههای بزرگ، از طریق توافقهایی مانند پروژه نیمبوس که در سال ۲۰۲۱ توسط گوگل و آمازون با مقامات اسرائیلی امضا شد، ارتش اسرائیل توانایی مادی برای انجام کشتاری در این ابعاد را نداشت.
در اوایل فوریه امسال، گوگل تغییری در ارتباطات خود ایجاد کرد و بندی را که در سال ۲۰۱۸ وارد کرده بود و بر اساس آن خود را از توسعه هوش مصنوعی با اهداف نظامی، به ویژه برای تسلیحات و نظارت، منع میکرد، حذف کرد. بهانه آنها این بود که دموکراسیها «نمیتوانند در این نوآوری عقب بمانند». به این ترتیب، شرکتی که توسط لری پیج تاسیس شد، بخشهای مربوط به عدم ارائه نرمافزار برای «سلاحها یا سایر فناوریهایی که هدف اصلی یا کاربرد آنها مستقیماً آسیب رساندن یا تسهیل آسیب رساندن به افراد است» و همچنین «فناوریهایی که اطلاعات را برای نظارت ناقض استانداردهای بینالمللی جمعآوری یا استفاده میکنند» را از تعهدات اخلاقی خود حذف کرد.
با این حال، این تغییر سیاست نبود. تنها دو هفته قبل، واشنگتن پست تحقیقی منتشر کرد که نشان میداد چگونه اسرائیل از گوگل خواسته است تا استفاده از سرویسی به نام ورتکس را برای اعمال الگوریتمهای هوش مصنوعی بر دادههای خود به فوریت گسترش دهد. اگرچه کاربرد مستقیم این خدمات مشخص نیست، اما همین مقاله اشاره میکند که مدیر کل اداره ملی سایبری دولت اسرائیل در یک کنفرانس اظهار داشت که «به لطف ابر عمومی نیمبوس، اتفاقات فوقالعادهای در طول درگیریها رخ میدهد، چیزهایی که نقش مهمی در پیروزی ایفا میکنند؛ من وارد جزئیات نخواهم شد.»
اوپنایآی (Open AI) نیز گامی در جهت ادغام با دوران جدید قدرت سخت برداشته است. در سال ۲۰۲۴، اوپنایآی از بازنگری سیاستهای اخلاقی خود خبر داد و به جمع پیمانکاران ارتش ایالات متحده پیوست و از طریق نرمافزار خود در ماموریتهای فرماندهی آفریقای ایالات متحده (AFRICOM) شرکت کرد. در ژانویه، شرکت سم آلتمن، مشهورترین شرکت متمرکز بر هوش مصنوعی، از توافق با آندوریل (Anduril)، سازنده موشک، پهپاد و نرمافزار برای ارتش ایالات متحده، خبر داد. مدیرعامل این شرکت – که توسط صندوق Founders Fund با مشارکت پیتر تیل تامین مالی میشود – تاکید کرد که همکاری با اوپنایآی «راهحلهای مسئولانهای ارائه میدهد که به اپراتورهای نظامی امکان میدهد در سناریوهای پرفشار تصمیمات سریع و دقیق بگیرند.»
به گزارش وایرد (Wired)، آندوریل روی یکی از تسلیحاتی کار میکند که به طور بالقوه پیشرفتهترین سلاح در کل فهرست هوش مصنوعی نظامی محسوب میشود: دستههای پهپاد. پهپادها از دهه اول قرن حاضر به واقعیت جنگ تبدیل شدهاند، اما آینده آنها در تکثیر و هماهنگی آنها از طریق یک مدل زبانی بزرگ (LLM) نهفته است و به طور فزایندهای نقش اپراتور انسانی را به نقش ثانویه تنزل میدهد.
در ماه نوامبر، پالانتیر و استارتاپ آنتروپیک توافقی را با آمازون وب سرویسز (AWS) – ابر آمازون، سودآورترین بخش تجاری آن – برای ارائه خدمات کلود، رقیب مدلهای GPT، اعلام کردند. بار دیگر همان شعار تکرار میشود: ارائه ابزارهای پیچیده برای تصمیمگیریهای سریع در زمینه «عملیات حیاتی دولتی»، آنطور که خود پالانتیر در وبسایتش شرح میدهد.
در ماه نوامبر، متا از ورود خود به تجارت جنگ از طریق مدل زبان بزرگ (LLM) خود، لاما، و مشارکتش با اسکیل ایآی (Scale AI)، پیمانکار دفاعی موفق، خبر داد. اطلاعات منتشر شده توسط اینترسپت نیز بر نقصهای محصول شرکت مارک زاکربرگ تاکید داشت.
تحقیقات روبرتو جی. گونزالس برای موسسه واتسون، مبلغ کل قراردادهای امضا شده توسط پنتاگون با شرکتهای فناوری را ۵۳ میلیارد دلار تخمین زد. به نظر میرسد این تازه شروع کار است.
درصد خطای هوش مصنوعی هرگز صفر نخواهد بود
در مقالهای که در اکتبر ۲۰۲۴ منتشر شد، محققان هایدی خلااف و سارا مایرز وست توصیه کردند «برای محدود کردن گسترش تسلیحات هوش مصنوعی، ممکن است لازم باشد سیستمهای هوش مصنوعی نظامی» از «دادههای شخصی تجاری» که در اختیار پلتفرمهای اجتماعی اصلی قرار میگیرند، «جدا شوند». جسیکا دورسی معتقد است: «باید نقش شرکتهای فناوری را زیر سوال برد، زیرا بخش زیادی از گفتمان توسط آنها هدایت میشود و هیچ پاسخگویی دموکراتیک واقعی از سوی آنها وجود ندارد.» او میافزاید که باید تلاش بیشتری صورت گیرد «تا از شفافیت و پاسخگویی معنادار شرکتهای فناوری زمانی که سیستمهای آنها در تلاشهای جنگی استفاده میشوند، اطمینان حاصل شود.»
به نظر برونت، هوش مصنوعی در حال حاضر در مرحله مقدماتی قرار دارد و سه مشکل تعیینکننده و بدون راهحل در کوتاهمدت یا میانمدت را حل نکرده است.
پره برونت، استاد زبانها و سیستمهای کامپیوتری دانشگاه پلیتکنیک کاتالونیا، معتقد است که بازنگری در مفهوم ابر و شبکههای اجتماعی ضروری است: «دولتها باید از مردم مراقبت کنند و بنابراین، نمیتوانیم دادههای خود را در دست بخش خصوصی رها کنیم. و باید تضمینهایی وجود داشته باشد که این دادهها برای خیر مردم و نه برای اهداف دیگر قابل استفاده باشند.» این محقق اینگونه خلاصه میکند.
برونت از واژه نوظهور «تکنوترافیکرها» برای تعریف شیفتگان هوش مصنوعی که در انواع متون آکادمیک و روزنامهنگاری تکثیر شدهاند، استفاده میکند. ستایشهای غیرانتقادی از این فناوریها در دیدگاه رسانهای غالب در مورد هوش مصنوعی به طور کلی نفوذ کرده و چیزی را که امروزه صرفاً یک نوآوری فناورانه ابتدایی است، به عنوان یک راهحل ارائه میدهند. تا حد زیادی، هوش مصنوعی فعلی فکر نمیکند. بنابراین، هوشمند نیست، بلکه بر اساس آمار و اطلاعات از پیش کدگذاری شده، پیشبینی و مدلسازی میکند. به نظر برونت، هوش مصنوعی در حال حاضر در مرحله مقدماتی قرار دارد و سه مشکل تعیینکننده و بدون راهحل در کوتاهمدت یا میانمدت را حل نکرده است؛ همچنین یک عنصر چهارم به همان اندازه مشکلساز که نه به راهحلهای ارائه شده توسط هوش مصنوعی بلکه به الزامات عملکرد آن مربوط میشود.
برونت در وهله اول به عدم دقت ذاتی هوشهای مصنوعی، به ویژه آنهایی که مبتنی بر مدلهای زبانی بزرگ (LLM) هستند، اشاره میکند. برونت، که در حال حاضر در مرکز دلاس برای مطالعات صلح تحقیق میکند، توضیح میدهد: «درصدی از خطا وجود دارد که هرگز صفر نخواهد بود.» عامل دوم، که شناختهشدهتر است، سوگیریها هستند. این انتقاد در مطالعات و نشریاتی که به نژادپرستی، تبعیض جنسی و سایر انواع تبعیض در استفاده به ظاهر بیطرفانه از زبان الگوریتمی میپردازند، بیشتر دیده میشود. سومین عامل، عدم توضیحپذیری فرآیندهایی است که هوش مصنوعی از طریق آنها یک راهحل پیشنهاد میدهد؛ چیزی که در کوتاهمدت پاسخی برای آن وجود ندارد. برونت میگوید: «چهارمین مشکل، ردپای زیستمحیطی است که هر روز بیشتر در مورد آن صحبت میشود.»
تخمین زده میشود که نیازهای ایجاد شده توسط هوش مصنوعی، مراکز جدیدی با مصرف معادل پنج راکتور انرژی هستهای را ضروری خواهد کرد.
همانطور که او در مقالهای منتشر شده توسط مجمع گذارها (Foro Transiciones) اشاره میکند، آهنگ مصرف انرژی هوش مصنوعی هر سال بین ۲۶ تا ۳۶ درصد افزایش مییابد و انتشار گازهای گلخانهای معادل آن نیز به صورت هندسی رشد میکند. هم آمازون و هم مایکروسافت قبلاً برای دسترسی به انرژی راکتورهای هستهای برای تامین مراکز داده خود به توافق رسیدهاند و تخمین زده میشود که نیازهای ایجاد شده توسط هوش مصنوعی، مراکز جدیدی با مصرف معادل پنج راکتور انرژی هستهای را ضروری خواهد کرد.
چهار عاملی که برونت به آنها اشاره کرد و در مورد کل هوش مصنوعی صدق میکند، در مورد مشتق نظامی آن اهمیت ویژهای دارد. با این حال، این واقعیت که هنوز کامل نشده است، از خطر آن نمیکاهد. به تفکیک: اولاً، مسئله زیستمحیطی تحت تأثیر یک شرایط قرار دارد: طبق توافقنامه تغییرات آب و هوایی پاریس (COP21)، دولتها ملزم به محاسبه میزان انتشار گازهای گلخانهای ناشی از بخش نظامی نیستند. بنابراین، با افزایش تقاضا برای محصولات خودکار مبتنی بر الگوریتمها و هوش مصنوعی با کاربردهای نظامی – یا دوگانه – انتشار گازهای عامل بحران آب و هوایی افزایش خواهد یافت، حتی اگر در سایر بخشها به انتشار صفر برسیم.
سه عنصر دیگر که هوش مصنوعی را تعریف میکنند نیز در کاربرد نظامی این فناوریها اهمیت بسزایی دارند. اولاً، خطاپذیری به موضوع شوخی برای کارشناسان دفاعی تبدیل شده است. طبق آنچه در انجمنهای علاقهمندان به موشکها برجسته شده است، پرسیدن از سیستمهای فعلی در مورد اینکه چه نوع سلاح سنگینی باید برای تخریب ساختمانها استفاده شود، نتایج ضعیفی به دست میدهد. اما عامل اصلی خطر در این زمینه، انتخاب اهدافی است که در حال حاضر از طریق سیستمهای الگوریتمی انجام میشود: هم احتمال اشتباه در شناسایی و هم اینکه هیچکس هرگز پاسخگوی این اشتباهات نیست. یکی از اشتباهاتی که مقاله آسوشیتدپرس منتشر شده در ۱۸ فوریه به آن اشاره میکند، از نوع زبانی است، یک ترجمه ماشینی نادرست از عربی به عبری که منجر به انتخاب اشتباه اهداف شد.
دورسی نتیجه میگیرد: «سرعتی که فناوری با آن توسعه مییابد و وسواس ظاهری به «نیاز به سرعت»، مانع یا تضعیف یک گفتگوی حیاتی میشود.»
در واقع، اطلاعات ارائه شده توسط خود ارتش اسرائیل دقت ۹۰ درصدی اهداف را تایید میکند، که معادل اعتراف به این است که از هر ده قتل فراقانونی، جان یک بیگناه گرفته میشود. کاربرد نظامی هوش مصنوعی به این ترتیب منجر به تعداد بیشتری از اشتباهات ناشی از شناسایی ضعیف، و با سوگیریهای نژادپرستانه و جنسیتی، یا به این دلیل میشود که هیچ مسئول نهایی وجود ندارد، که رفتار غیرمسئولانه را تشویق میکند.
دورسی مقداری ابهامزدایی در مورد سخنان این تکنوترافیکرها در مورد کاربرد هوش مصنوعی وارد میکند: «اگرچه اغلب وعده داده میشود که این سیستمها «موثرتر» یا «دقیقتر» هستند، واقعیت در میدان جنگ داستان متفاوتی را تأیید میکند: اگر این سیستمها برای ریشهکن کردن تهدید حماس، برای مثال، دقیقتر یا موثرتر بودند، جنگ اینقدر طولانی نمیشد و آسیب به غزه، برای مثال، اینقدر بزرگ نبود. سطح آسیب به غیرنظامیان فاجعهبار و، همانطور که عفو بینالملل در دسامبر نتیجهگیری کرد، نسلکشانه است. این سیستمها تصورات نادرست از تعهدات و تفاسیر قانونی را تشدید میکنند و امکان تخریب با سرعت و مقیاس بالا را فراهم میکنند.» این محقق حوزه واقعیتهای جنگ الگوریتمی توضیح میدهد.
عامل سوم، عدم توضیحپذیری تصمیمات، هنگامی که در زمینه نظامی به کار میرود، اهمیت شومی پیدا میکند. سیستمها برای توضیح مراحل طی شده در پیشنهاد تصمیمات خود طراحی نشدهاند. این بدان معناست که پاسخگویی حتی دشوارتر از آن چیزی است که در حال حاضر در حوزه نظامی وجود دارد.
وضعیت مقررات
دوره دوم ریاست جمهوری دونالد ترامپ در کاخ سفید، همانطور که انتظار میرفت، با لغو اقدامات حفاظتی و ایمنی برای سیستمهای هوش مصنوعی – دستور اجرایی اکتبر ۲۰۲۳ که توسط ریاست جمهوری جو بایدن تصویب شده بود – و صدور دستور جدیدی برای «رفع موانع» نوآوری به منظور، از جمله اهداف دیگر، «امنیت ملی» آغاز شده است. ترامپ همچنین دیوید ساکس، تاجر آفریقایی-آمریکایی و یکی از اعضای گروه غیررسمی «مافیای پیپال» (که ایلان ماسک و پیتر تیل از آن بیرون آمدند) را به عنوان مسئول سیاستهای مربوط به هوش مصنوعی منصوب کرده است.
هوش مصنوعی
در ژانویه سال جاری، ترامپ به همراه رهبران اوپنایآی، اوراکل و سافتبانک، راهاندازی پروژه استارگیت را اعلام کرد، پروژهای ۵۰۰ میلیارد دلاری که هدف آن حفاظت از امنیت ملی ایالات متحده و متحدانش است.
پورتال تک پالیسی پیشبینی کرد که دولت جدید استفاده «شدید» از این سیستمها را، همچنین برای نظارت و کنترل جمعیت و نیز برای «اخراج دستهجمعی» که به توم هومان، تزار ضد مهاجرت، سپرده شده است، در دستور کار قرار خواهد داد.
صندوقهای سرمایهگذاری خطرپذیر در سالهای اخیر سرمایهگذاری خود را در فناوری دفاعی افزایش دادهاند و خود شرکتهای فناوری نیز به دنبال سود بیشتر به سمت «امنیت» تغییر جهت دادهاند. با قرار گرفتن ایالات متحده در نوک پیکان این صنعت تسلیحاتی جدید، بعید است که سایر قدرتهای بینالمللی احتیاط پیشه کنند. علیرغم استفاده روزافزون از هوش مصنوعی، قانون هوش مصنوعی اتحادیه اروپا که در سال ۲۰۲۴ به اجرا درآمد، کاربردهای نظامی یا امنیت ملی هوش مصنوعی را در نظر نمیگیرد. جسیکا دورسی، محقق، در پاسخهای خود به ال سالتو اشاره میکند که اتحادیه اروپا در این زمینه اقدام خاصی انجام نداده است. مسئول گروه مطالعات واقعیتهای جنگ الگوریتمی میگوید: «نیاز به کار بسیار بیشتری برای پرداختن به هوش مصنوعی نظامی از منظر اروپایی وجود دارد.»
از جمله پیشنهادات این است که پهپادها و رباتهای انتحاری برچسبی داشته باشند که یک انسان را مسئول استفاده از آنها اعلام کند، به عنوان راهی برای جلوگیری از کشتار بیحد و حصری که به نظر میرسد استفاده از این سیستمها آن را تسهیل میکند.
در ژوئیه ۲۰۲۳، دبیرکل سازمان ملل متحد، آنتونیو گوترش، از کشورها خواست تا قبل از سال ۲۰۲۶ یک «ابزار حقوقی الزامآور برای ممنوعیت سیستمهای تسلیحاتی خودمختار مرگبار که بدون کنترل یا نظارت انسانی عمل میکنند و نمیتوان از آنها در انطباق با حقوق بینالملل بشردوستانه استفاده کرد» را تصویب کنند. کمیته بینالمللی صلیب سرخ نیز خواستار ممنوعیت سیستمهایی شده است که درک یا توضیح آنها بیش از حد پیچیده است و فاقد سطح معینی از کنترل توسط انسان هستند. با این حال، اراده برای دستیابی به این توافق ممکن است در برابر پتانسیل مخرب هوش مصنوعی بر نظم بینالمللی مبتنی بر قوانین متزلزل، کافی نباشد.
همانطور که اشاره شد، خطرات استفاده از هوش مصنوعی مستقیماً حقوق بینالملل بشردوستانه و حقوق بینالملل حقوق بشر را تهدید میکند. در مورد حقوق بینالملل بشردوستانه، بیم آن میرود که به طور پیشفرض پایینترین سطوح حفاظت اعمال شود، همانطور که بریانا روزن آن را محکوم میکند. از جمله پیشنهادات سازمانهایی که نسبت به پیشرفت کنترلنشده این فناوری هشدار میدهند، این است که پهپادها و رباتهای انتحاری برچسبی داشته باشند که یک انسان را مسئول استفاده از آنها اعلام کند، به عنوان راهی برای جلوگیری از کشتار بیحد و حصری که به نظر میرسد استفاده از این سیستمها آن را تسهیل میکند.
از سوی جاست سکیوریتی (Just Security) همچنین توصیه میشود که عملیات پهپادی باید توسط دو نفر نظارت و تایید شود – به سبک پروتکلهای استفاده از سلاحهای هستهای – و همچنین سیستمهای حسابرسی و تأیید افزایش یابد. به نظر میرسد شفافیت و پاسخگویی تنها راهکارهای کاهش خطرات استفاده از هوش مصنوعی نظامی هستند.
دورسی نتیجه میگیرد: «چالشی که امروز با آن روبرو هستیم این است که پیشرفتهای فناوری هوش مصنوعی انسانها را به حاشیه تصمیمگیری سوق میدهد، که سوالاتی را در مورد جایگاه آنها در جنگ مطرح میکند. این سوالات وجودی مستحق تحقیق و بحث بسیار بیشتری هستند، اما سرعتی که فناوری با آن توسعه مییابد و وسواس ظاهری به «نیاز به سرعت»، مانع یا تضعیف چنین گفتگوی حیاتی میشود.» همانطور که پره برونت یادآوری میکند، غیرانسانیسازی که منجر به استفاده از ماشینها برای نابودی میشود، ناشی از انسانها است، نه هوشهای مصنوعی یا الگوریتمها، و وظیفه بشریت است که در برابر تهدیداتی که امروز بر همه ملتها سایه افکنده است، همکاری کند، «نه تغییرات آب و هوایی، نه همهگیریها و نه سیلها مرز نمیشناسند. بنابراین، شاید لازم باشد پارادایم را تغییر دهیم و پولی را که به امور نظامی اختصاص داده میشود، به این مسائل اختصاص دهیم.» این محقق نتیجهگیری میکند.

