
نوشتهی یاردن کاتز و جاستین پودور
نمای هوایی از ویرانیهای رفح، غزه، ژانویه ۲۰۲۵. (منبع: UNRWA، از طریق ویکیمدیا)
منتشر شده در مانتلی ریویو
ترجمه مجله جنوب جهانی
این روزها، روایتی فراگیر به گوش میرسد که نسلکشی اسرائیل در غزه را «هوش مصنوعیمحور» معرفی میکند. بسیاری از صاحبنظران هشدار میدهند که این واقعه، سرآغاز عصری نوین در مخاصمات نظامی است؛ گویی برای نخستین بار، جنگی «خودکار» به راه افتاده است. نشریهی معتبر فارن پالیسی با قاطعیت اعلام میکند که «هوش مصنوعی تعیین میکند چه کسی زندگی کند و چه کسی بمیرد». وبگاه وُکس نیز گزارش میدهد که «هوش مصنوعی به اسرائیل دستور میدهد کجا را بمباران کند». حتی واشنگتن پست پا را فراتر نهاده و مدعی است که «اسرائیل، نمایی اجمالی از دنیای هولناک هوش مصنوعی نظامی به نمایش میگذارد».
اما این روایتها، نه از سر اشتباه، بلکه با هدفی مشخص، گمراهکنندهاند. آنها عامدانه توجه را از نهادها و ایدئولوژیهای بنیادینی که مسئول این حجم عظیم از ویرانی هستند، و همچنین از مقیاس بیسابقه و تکاندهندهی این فاجعه منحرف میکنند. این نوع چارچوببندی، همچون دیگر توسلهای پرطمطراق به مفهوم مبهم و اغلب نژادپرستانه آلودهی «هوش مصنوعی»، زمینهای را فراهم میآورد تا «کارشناسان» امپریالیست با راه حلهای ناکارآمد و خیالی خود سر برسند. این به اصطلاح متخصصان، به جای آنکه به مبارزه با عاملان اصلی نسلکشی بپردازند و از مقاومت مشروع مردم فلسطین حمایت کنند، تلاش دارند تا تقصیر این جنایت هولناک را به گردن «سوء استفاده» از رایانهها بیندازند – سوء استفادههایی که وعده میدهند از طریق همکاریهای تنگاتنگ خود با دولت ایالات متحده، شرکتهای بزرگ و نهادهای دانشگاهی (همانهایی که بستر این نسلکشی را فراهم آوردهاند) «اصلاح» کنند.
بمبارانهای «هوش مصنوعیمحور»: روایتی مورد پسند سانسور نظامی اسرائیل
روایت کنونی و رایج دربارهی «نسلکشی هوش مصنوعیمحور» در غزه، عمدتاً بر پایهی مقالات یووال آبراهام، روزنامهنگار و فعال اسرائیلیِ همکار با رسانهی +۹۷۲ شکل گرفته است. آبراهام بیشتر به خاطر کارگردانی مشترک مستند تحسینشدهی «هیچ سرزمین دیگری» شناخته میشود؛ فیلمی که تلاشهای اسرائیل برای نابودی مسافر یطا و مقاومت الهامبخش ساکنان آن را به تصویر میکشد و اخیراً نیز جایزهی اسکار را از آن خود کرده است. حمدان بلال، کارگردان فلسطینیِ همکار آبراهام – که به سادگی میتوانست با دیگر همکار فلسطینی فیلم این داستان را روایت کند، اما بدون حمایت اسرائیل امکان حضور در مراسم اسکار را نمییافت – در مارس ۲۰۲۵ توسط شهرکنشینان افراطی و ارتش اسرائیل ربوده و مورد ضرب و شتم قرار گرفت. شهرت و توجه پس از دریافت جایزهی اسکار همچنین انتقادات موجهی را نسبت به اقدامات آبراهام برانگیخت؛ از جمله انتشار پروپاگاندای اسرائیلی دربارهی جنایات ۷ اکتبر و استفاده از فرصت سخنرانی در مراسم اسکار برای محکوم کردن حماس و ایجاد یک قیاس نادرست و گمراهکننده بین عملیات طوفان الاقصی و جنگ نسلکشانهی اسرائیل.
در طول سال گذشته، آبراهام چندین مقاله منتشر کرده است که به عنوان مستندی برای ایدهی «نسلکشی هوش مصنوعیمحور» مورد استفاده قرار گرفتهاند، با این حال، خود آبراهام، به شکلی قابل توجه، هرگز از واژهی «نسلکشی» استفاده نمیکند. برخی از این مقالات در همکاری مشترک بین +۹۷۲ و گاردین به چاپ رسیدهاند و به طور گسترده توسط فعالان و رسانههای حامی فلسطین بازنشر شدهاند. برای نمونه، وبگاه میدل ایست مانیتور، بر اساس همین گزارشها، از عبارت «نسلکشی هوش مصنوعیمحور اسرائیل» استفاده کرده است.
از آنجایی که +۹۷۲ یک رسانهی اسرائیلی است، طبیعتاً تحت نظارت و سانسور نظامی اسرائیل قرار دارد. هر گزارشی که به مسائل «حساس» مربوط شود، پیش از انتشار باید توسط سانسورچیان نظامی تایید گردد تا اطمینان حاصل شود که به منافع «امنیتی» رژیم صهیونیستی آسیبی نمیرساند. و اگر مقالات آبراهام را با دقت مطالعه کنیم، چندان جای تعجب نیست که این مقالات از فیلتر سانسور عبور کردهاند؛ چرا که آنها به شکلی ظریف و زیرکانه، ابعاد واقعی نسلکشی را کماهمیت جلوه میدهند، مسئولیت این جنایات را از عاملان انسانی به ماشینها منتقل میکنند و (خواه از روی عمد یا سهو) به ترویج فناوریهای نظامی اسرائیل میپردازند.
تفاوت «هدفگیری هوش مصنوعیمحور» با بمباران بیهدف و گسترده چیست؟
مقاله پر استناد آبراهام دربارهی سامانهای به نام «لاوندر» (منتشر شده در ۳ آوریل ۲۰۲۴) با نقل قولی از کتابی که توسط ارتش اسرائیل به نگارش درآمده، آغاز میشود. این کتاب ادعا میکند که در فرآیند تعیین اهداف، یک «تنگنا» وجود دارد (ظاهراً سرعت عمل انسانها در این زمینه بسیار پایین است) و پیشنهاد میدهد که «هوش مصنوعی» قادر به حل این مشکل خواهد بود و بدین ترتیب، تحولی بنیادین در ماهیت جنگ ایجاد خواهد کرد. آبراهام، به جای آنکه این پیشفرض را به چالش بکشد که ارتش اسرائیل از یک روش پیچیده و کارآمد برای «تولید اهداف» برخوردار است – ادعایی که به روایت اسرائیل مبنی بر استفاده از «هدفگیری دقیق» اسوار است – در نهایت نتیجه میگیرد که فناوری انقلابی که ارتش اسرائیل رویای آن را در سر میپرورانده، اکنون به واقعیت پیوسته است: این فناوری، همان سامانهی «لاوندر» است.
منابع آبراهام، سربازان اسرائیلی هستند که او را متقاعد کردهاند که سامانهی «لاوندر» «نقشی محوری در بمباران بیسابقهی فلسطینیان ایفا کرده است». آبراهام میافزاید که منابع ناشناس او به او گفتهاند که «تأثیر لاوندر بر عملیات نظامی به حدی بوده است که آنها اساساً خروجیهای این ماشین هوش مصنوعی را «همانند یک تصمیم انسانی» تلقی میکردند.»
در حقیقت، تمامی تصمیمات اتخاذ شده در طول این نسلکشی، «تصمیمات انسانی» هستند. حتی اگر در فرآیند اجرای این جنایت هولناک از رایانه استفاده شده باشد، این انسانها هستند که تصمیم به استفاده از رایانه گرفتهاند، نرمافزار آن را طراحی کردهاند، دادههای ورودی را انتخاب کردهاند، معیارهای یک «خروجی» معتبر را تعیین کردهاند و در نهایت، مشخص کردهاند که چگونه این خروجی در تصمیم نهایی و انسانی برای کشتن افراد نقش خواهد داشت. ماشینها ماشه را نمیکشند؛ این انسانها هستند که این کار را انجام میدهند. در حالی که کارشناسان هوش مصنوعی درگیر بحثهای انتزاعی و پوچ دربارهی سناریوهایی هستند که در آن ماشینها به خودآگاهی میرسند و تصمیم میگیرند همهچیز را به گیرهی کاغذ تبدیل کنند، واقعیت این است که ماشینها به تنهایی هیچ قدرتی ندارند. در دنیای واقعی، ما با سیستمها و نهادهای مادی روبرو هستیم که در آنها انسانها تصمیمات سیاسی و اخلاقی اتخاذ میکنند. هیچ ماشینی خودمختار نیست؛ عملکرد هر ماشینی وابسته به منابعی است که توسط انسانها تخصیص داده شده است و هر ماشینی در نهایت میتواند از منبع تغذیه جدا شود.
تخمین زده شده است که تا ژانویه ۲۰۲۵، بیش از ۷۰ درصد از ساختارهای موجود در غزه آسیب دیده یا به طور کامل تخریب شدهاند. اسرائیل از اکتبر ۲۰۲۳ بیش از ۸۵۰۰۰ تن بمب بر سر این باریکهی محاصرهشده فرو ریخته است (علاوه بر آن، سیاست قحطی مهندسیشده و کمبود فاجعهبار تجهیزات پزشکی را نیز باید در نظر گرفت). به بیان ساده، تقریباً همهچیز در غزه بمباران شده است و بسیاری از مناطق، بر اساس گزارشهای ساکنان غزه و تصاویر ماهوارهای، بارها مورد حمله قرار گرفتهاند.
وقتی هدف، محو کامل است: چرا «تولید هدف» در نسلکشی غزه بیمعناست؟
چرا باید به سازوکار «تولید هدف» اهمیت داد، وقتی که نهاد صهیونیستی از پیش تصمیم گرفته است تا تمامی نوار غزه را زیر آتش بگیرد؟ هدفی که سیاستمداران وقیح اسرائیلی سالهاست آن را فریاد میزنند: بازگرداندن غزه «به عصر حجر».
اسرائیل ابتدا مناطقی را بمباران کرد که محل سکونت مردم بود، و سپس، همان جاهایی را هدف قرار داد که مردم برای یافتن پناهگاه و اندکی غذا به آنجا پناه برده بودند. این رژیم عامدانه تمامی زیرساختهای حیاتی را که امکان تداوم زندگی را فراهم میکردند، مورد حمله قرار داد. تا ۲۶ اکتبر ۲۰۲۳، بیش از سی و پنج مرکز درمانی، از جمله بیست بیمارستان، زیر بمبهای اسرائیل نابود شده بود. همان زمان، مری طرفه به درستی این اقدامات را مصداق بارز «منطق حذف» توصیف کرد؛ منطقی که بر اساس آن «استعمارگر، زیرساختهای پزشکی را نابود میکند تا توانایی زیستن را از مردم سلب کند، پس از آنکه در شکستن ارادهی آنها ناکام میماند.» اکنون، شمار زیادی از بیمارستانها بارها و بارها بمباران شدهاند. هدف غایی اسرائیل، نابودی هر آن چیزی بود که برای زندگی در غزه ارزشمند تلقی میشد؛ از مساجد و نانواییها گرفته تا تأسیسات حیاتی آب و فاضلاب (که تا اوایل اکتبر ۲۰۲۴، ۸۵ درصد آنها ویران شده بودند).
حال، وقتی سیاست استعماری شهرکنشینان چیزی جز حذف و نابودی نیست، مفهوم «تولید هدف» چه معنایی میتواند داشته باشد؟ و با توجه به اینکه اسرائیل بیوقفه و همهجانبه در حال بمباران بوده است، این همه هیاهو و تمرکز بر داستانهای مربوط به هدفگیری مبتنی بر هوش مصنوعی برای چیست؟ این تأکید بر «تولید هدف»، به طرز زیرکانهای از نیت واقعی نسلکشی کاسته و عاملان این جنایات را به نوعی قربانی، مهرههای بیارادهی ماشین، جلوه میدهد. یووال آبراهام در این باره مینویسد:
ارتش [اسرائیل] به افسران خود اختیارات تام داد تا فهرستهای کشتار تهیهشده توسط سامانهی «لاوندر» را بدون هیچگونه الزام به بررسی دقیق دلایل انتخابهای این سیستم یا تحلیل دادههای اطلاعاتی اولیهی مبنای آن، بپذیرند. یک منبع آگاه اظهار داشت که پرسنل انسانی اغلب صرفاً نقش «مهر تأیید» را برای تصمیمات این ماشین ایفا میکردند… این در حالی بود که آنها میدانستند این سیستم تقریباً در ۱۰ درصد موارد دچار «اشتباه» میشود و سابقهی علامتگذاری افرادی را دارد که تنها ارتباطی کمرنگ با گروههای شبهنظامی دارند یا اصلاً هیچ ارتباطی با آنها ندارند.
اما بار دیگر تأکید میکنیم: اینها «تصمیمات ماشین» نیستند. اسرائیل هرگز برای بمباران بیهدف و گستردهی فلسطینیان نیازی به «هوش مصنوعی» نداشته است. نابودی کامل مناطق مسکونی، سیاستی دیرینه و ریشهدار در تفکر صهیونیستی است. اینکه گفته شود این حملات عمدتاً «شبهنظامیان» را هدف قرار میدهند و انحرافات جزئی ناشی از «اشتباهات» فنی رخ میدهد، تلاشی آشکار برای تطهیر ماهیت نسلکشانهی اسرائیل است. این رویکرد، همچنین به شکلی اغراقآمیز «هوش مصنوعی» را به عنوان یک فناوری انقلابی و خودگردان ارتقا میبخشد.
آبراهام با گرفتار شدن در منطق «تولید هدف»، ناخواسته تبلیغاتی را نیز تقویت میکند که بر اساس آن، ارتش اسرائیل در سایر موارد به اصول «اخلاقی» خاصی پایبند است. ارتش اسرائیل به دلیل سابقهی خود در انتصاب فیلسوفان برای تدوین «منشور اخلاق ارتش» و همچنین وکلایی که ظاهراً بر رعایت قوانین بینالمللی نظارت میکنند، بدنام است. به ادعای اسرائیل، همین «کارشناسان» هستند که میزان قابل قبول «خسارت جانبی» را تعیین میکنند.
آبراهام مینویسد که ارتش اسرائیل اخیراً «در اقدامی بیسابقه» تصمیم گرفته است که «برای هر نیروی دونپایهی حماس که توسط سامانهی لاوندر علامتگذاری شده است، کشتن تا ۱۵ یا ۲۰ غیرنظامی مجاز است؛ در گذشته، ارتش در جریان ترور شبهنظامیان ردهپایین هیچگونه «خسارت جانبی» را مجاز نمیدانست.» او میافزاید که «در صورتی که هدف یک مقام ارشد حماس با رتبهی فرمانده گردان یا تیپ باشد، ارتش در چندین مورد کشتن بیش از ۱۰۰ غیرنظامی را در جریان ترور یک فرمانده مجاز کرده است.»
این نوع چارچوببندی طوری القا میکند که سیاست اسرائیل مبتنی بر حذف کامل نیست، بلکه ارتش اسرائیل صرفاً آستانهی «اخلاقی» خود را از میزانی قابل قبول (حدود پانزده غیرنظامی در ازای هر هدف) به سطحی تغییر داده است که حتی از دیدگاه صهیونیستهای لیبرال نیز افراطی به نظر میرسد (حدود صد غیرنظامی در ازای هر هدف). البته، این گزارش هرگز اصل هدف قرار دادن مقاومت را به چالش نمیکشد. تلویحاً پذیرفته شده است که اگر اسرائیل بتواند هر یک از اعضای «مهم» حماس را با دقت بیشتری به قتل برساند، هیچ مشکلی وجود نخواهد داشت.
آبراهام در مصاحبهای با پادکست +۹۷۲ به زبان عبری به این نکته اشاره میکند. مصاحبهکننده میپرسد: «این افرادی که توسط لاوندر علامتگذاری شدهاند، آیا ما هیچ راهی برای دانستن اینکه واقعاً در حماس فعال هستند نداریم؟» آبراهام پاسخ میدهد:
قبل از جنگ، لاوندر صرفاً یک ابزار کمکی بود. به ما سرنخ میداد. مثلاً، یک تماس تلفنی وجود داشت و فردی که در آن تماس بود، در پایگاه دادهی لاوندر ثبت شده بود. خب، عالی است، پس او یک مظنون است. شاید او عضو حماس باشد، شاید هم نباشد. شاید او فقط الگوهای ارتباطی مشابهی با اعضای حماس داشته باشد. به عنوان مثال، روزنامهنگارانی که به طور مرتب با اعضای حماس گفتگو میکنند، در تجمعات آنها شرکت میکنند و از آنها عکس میگیرند، ممکن است الگوهای ارتباطی مشابهی داشته باشند.
آبراهام میگوید این «جنون ۷ اکتبر» بود که به طرز چشمگیری اوضاع را تغییر داد. ظاهراً ارتش اسرائیل شروع به پذیرش توصیههای لاوندر به عنوان حقیقت مطلق کرد، بدون هیچگونه «تأیید» بیشتر، علیرغم آگاهی از اینکه لاوندر «از هر ده مورد، یک مورد» به اشتباه فردی را به عنوان «عضو فعال حماس» شناسایی میکند.
آیا «لاوندر» اصلاً وجود دارد؟
ما حتی نمیتوانیم با اطمینان بگوییم که سامانهی «لاوندر» آنگونه که +۹۷۲ توصیف میکند، وجود خارجی دارد. برخلاف افشاگریهای ادوارد اسنودن در سال ۲۰۱۳ دربارهی نظارت گستردهی آژانس امنیت ملی آمریکا و شرکتهای همکار، آبراهام هیچ سند داخلی در مورد این سیستم ارائه نمیدهد. +۹۷۲ ادعا میکند که فیلمی از یک ارائهی ارتش اسرائیل در دانشگاه تلآویو در مورد «ماشینهای هدفگیری انسانی» به همراه اسلایدهای آن ارائه را به دست آورده است، اما نه آن فیلم و نه اسلایدهای کامل منتشر نشدهاند. مقالهی آبراهام تنها دو اسلاید از این ارائه را نشان میدهد که فاقد جزئیات هستند و هیچ نام سیستمی در آنها ذکر نشده است. حتی اگر آبراهام به اسناد مفصلی دسترسی داشت، سانسور نظامی اسرائیل اجازهی انتشار آنها را نمیداد (و به همین دلیل است که رسانههای اسرائیلی مانند +۹۷۲ نمیتوانند گزارشهای جدی در مورد این موضوعات تهیه کنند).
حتی اگر «لاوندر» وجود داشته باشد، به همان اندازه میتواند فهرستی از مختصات GPS تمام ساختارهای غزه باشد. نتیجه تفاوتی با آنچه شاهد هستیم نخواهد داشت: تخریب کامل. هیچ ابرماشینی در اختیار ارتش اسرائیل نیست که به آنها بگوید کجا را بمباران کنند. اجبارها و ایدئولوژیهای آنها را نمیتوان در رایانه یافت.
این داستان که آنچه در غزه رخ میدهد ناشی از یک ماشین است، طوری جلوه میدهد که برخی سربازان اسرائیلی موضعی اخلاقی اتخاذ کردهاند. آبراهام در مصاحبه با دموکراسی نو! گفت که برخی از خبرچینهای او «از ارتکاب فجایع و مشارکت در کارها و کشتن خانوادهها شوکه شده بودند و احساس میکردند این غیرقابل توجیه است. و فکر میکنم آنها احساس مسئولیت میکردند.» او افزود که «آنها احساس نیاز به اشتراک گذاشتن این اطلاعات با جهان داشتند، از این حس که مردم متوجه نمیشوند.» چرا شوک آنها مانع از اطاعت از دستورات نسلکشانهشان نشد؟
آبراهام در هیچ موردی چنین امتناعهایی را تأیید نمیکند. وقتی رسانههای اسرائیلی از او پرسیدند که آیا فکر میکند سربازان اسرائیلی باید از دستور اخراج فلسطینیان از خانههایشان در مسافر یطا (اخراجهایی که در فیلم «هیچ سرزمین دیگری» مستند شده است) سرپیچی کنند، آبراهام پاسخ داد: «من در جایگاهی نیستم که چیزی در این مورد بگویم. هر کس باید طبق وجدان خود عمل کند… تأکید ما بر سرباز فردی نیست.»
به نظر میرسد سربازان خبرچین آبراهام هیچ وجدانی ندارند. این سربازان نه تنها نسلکشی را تصدیق نمیکنند، بلکه آن را به چالش هم نمیکشند. آنها صرفاً سؤالاتی را در مورد پروتکل «تولید هدف» مطرح میکنند (ظاهراً بدون اینکه متوجه شوند تمام غزه مورد نظر است). خبرچینهای آبراهام به او گفتند که آنها برای بسیاری از اهداف از بمبهای «احمق» استفاده میکردند که خسارات سنگینی وارد میکنند، نه بمبهای به اصطلاح هوشمند که خسارات موضعیتری ایجاد میکنند. برخی از سربازان این کار را توجیه کردند. یک سرباز به آبراهام گفت: «شما نمیخواهید بمبهای گرانقیمت [هوشمند] را روی افراد بیاهمیت هدر دهید – برای کشور بسیار پرهزینه است و کمبود [آن بمبها] وجود دارد.» دیگری به طور مشابه گفت: «حیف است بمبها را روی فلسطینیانی که «عوامل مهم حماس» نیستند هدر دهیم.»
با این حال، یک خبرچین دیگر به آبراهام گفت که بمباران غزه از نظر مقیاس بیسابقه است، اما «من به یک مکانیسم آماری بسیار بیشتر از سربازی که دو روز پیش دوستش را از دست داده اعتماد دارم. همه آنجا، از جمله من، در ۷ اکتبر عزیزانمان را از دست دادیم. ماشین این کار را سرد و بیروح انجام داد. و این کار را آسانتر کرد.» این هر چیزی که باشد، اسمش مقاومت در برابر نسلکشی نیست.
پاسخ رسمی اسرائیل به موضوع لاوندر در واقع به حقیقت نزدیکتر از پوشش +۹۷۲ است. ارتش اسرائیل به رسانههای اسرائیلی گفت که «بمبهای احمق» که بر سر غزه میریزد، سلاحهای جنگی استاندارد هستند. در مورد لاوندر، ارتش اسرائیل گفت که «از هوش مصنوعی برای گفتن یا پیشبینی اینکه آیا یک فرد تروریست است استفاده نمیکنند» و افزود که پایگاههای دادههای اطلاعاتی «فقط ابزاری» برای تحلیلگران نظامی هستند که تصمیمگیری میکنند.
«هوش مصنوعی» پناهگاه شیادان است
نکتهای که تقریباً تمام بحثهای مربوط به هوش مصنوعی از آن غافل میشوند، انعطافپذیری این اصطلاح است. سیستمهایی که برای دههها مورد استفاده قرار گرفتهاند، با نام تجاری جدید «هوش مصنوعی» معرفی شدهاند. اساساً هر چیزی که شامل یک رایانه باشد، در زمینهی مناسب میتواند «هوش مصنوعی» تلقی شود، از سیستمهایی که حق بیمه را محاسبه میکنند تا سادهترین عبارت «اگر-آنگاه». نامیدن چیزی به عنوان هوش مصنوعی صرفاً بازاریابی است، پوششی تازه بر اهداف سیاسی قدیمی. اصطلاح «هوش مصنوعی» برای نهادهای سرکوبگر مفید است زیرا با بسیاری از ایدئولوژیها در مورد سلسله مراتب هوش، کار و محدودیتهای ذهن انسان مرتبط میشود.
اگر «الگوریتمی» برای آنچه اسرائیل انجام میدهد وجود داشته باشد، میتوان آن را با یک عبارت ساده «اگر-آنگاه» خلاصه کرد: «اگر برای زندگی بومیان ضروری است، پس سعی کن آن را نابود کنی.» این منطقی است که دولتهای استعماری شهرکنشین از مدتها قبل از وجود رایانههای دیجیتال از آن پیروی میکردند. نیازی به توسل به «هوش مصنوعی» نیست.
اگر ما فرض «نسلکشی مبتنی بر هوش مصنوعی» را بپذیریم، پس مشکل خود ایدئولوژی نژادپرستانه و صهیونیستی نیست؛ ما صرفاً به متخصصانی نیاز داریم که به ما در تعمیر رایانه کمک کنند، رایانهای که «تصمیماتش» کمتر از حد کامل بوده است.
گزارش آبراهام (که با همکاری هری دیویس نوشته شده است) در مورد استفادهی فرضی اسرائیل از سیستمی شبیه ChatGPT، که هم در +۹۷۲ و هم در گاردین منتشر شده است، نمونهی بارز این موضوع است. آبراهام در ابتدا این سیستم را به گونهای توصیف میکند که شبیه روابط عمومی برای فناوریهای اسرائیلی به نظر میرسد: ابزاری که توسط «یگان جنگ سایبری نخبه» ارتش اسرائیل ایجاد شده است و «مقادیر عظیمی از اطلاعات جمعآوریشده در مورد زندگی روزمرهی فلسطینیان ساکن تحت اشغال به آن داده میشود.» با این حال، جنبههای منفی نیز وجود دارد. کارشناس دیویس و آبراهام در این زمینه، بریانا روزن، مشاور سابق امنیت ملی کاخ سفید است.
همانطور که قابل پیشبینی بود، روزن به خبرنگاران گفت که ChatGPT ظرفیت بسیار زیادی برای دولت دارد؛ به این صورت که میتواند «تهدیداتی را که ممکن است از دید انسان پنهان بماند، حتی پیش از آنکه به وجود بیایند، شناسایی کند.» با این حال، او به «خطراتی» همچون «ایجاد ارتباطات اشتباه و رسیدن به نتایج نادرست» نیز اشاره کرد. روزن، مانند بسیاری دیگر از کسانی که در خدمت منافع قدرتهای بزرگ هستند، ادعا میکند که در واقع این هوش مصنوعی است که اکنون جنگ را به راه انداخته و او میخواهد «شفافیت» و «پاسخگویی» آن را بهبود ببخشد. این اقدامات به بهانهی «امنیت ملی» صورت میگیرد. سؤالاتی که روزن میخواهد ما بر آنها تمرکز کنیم از این قرارند:
اسرائیل برای پیشگیری از خطاها، توهمات، سوء استفاده و حتی فساد در سیستمهای هدفگیری مبتنی بر هوش مصنوعی چه تمهیداتی اندیشیده است؟ آیا مقامات اسرائیلی میتوانند به طور کامل توضیح دهند که خروجیهای این سیستمهای هدفگیری چگونه تولید شدهاند؟ چه میزان اطمینان در مورد قابلیت ردیابی و توضیح نتایج وجود دارد؟
روزن در نهایت میگوید که مشخص نیست «هوش مصنوعی مسئولانه» چگونه در عمل به کار گرفته میشود. یکی از انتقادات او این است که اسرائیل، که او آن را «متحد کلیدی ایالات متحده» مینامد، اصول اخلاق هوش مصنوعی را که کشورهای پیشرفتهای مانند ایالات متحده پذیرفتهاند، تأیید نکرده است (او اشاره میکند که روسیه نیز چنین رویکردی دارد). برای نمونه، در سال ۲۰۲۰، پنتاگون بیانیهای با عنوان «اصول اخلاقی هوش مصنوعی» منتشر کرد که شامل مفاهیمی چون «مسئولیتپذیری»، «قابلیت ردیابی» و استفادهی «منصفانه» (که وعده داده شده «سوگیری ناخواسته» را کاهش میدهد) میشود. کاش اسرائیل هم میتوانست به همین اندازه اخلاقی عمل کند!
این کارشناسان در نشستهایی مانند «اجلاس هوش مصنوعی مسئولانه در حوزهی نظامی» (۲۰۲۴) و «کنفرانس جهانی هوش مصنوعی، امنیت و اخلاق» (۲۰۲۵) که با حمایت مالی مایکروسافت و میزبانی سازمان ملل متحد برگزار میشود، دربارهی این مسائل مهم بحث و تبادل نظر میکنند. میتوان با اطمینان گفت که اگر هنری کیسینجر (که در اواخر عمر خود را به عنوان یک «کارشناس هوش مصنوعی» جا زد) هنوز زنده بود، بدون شک یکی از سخنرانان اصلی این کنفرانسهای «هوش مصنوعی مسئولانه برای جنگ» میشد.
دیویس و آبراهام نمونهای از پیامدهای «غیرمسئولانه» بودن هوش مصنوعی ارائه میدهند. آنها در مقالهشان دربارهی سیستم مشابه ChatGPT ارتش اسرائیل، به موردی اشاره میکنند که «احتمالاً افسران اطلاعاتی از هوش مصنوعی برای کمک به انتخاب هدف در حملهی هوایی اسرائیل به غزه در نوامبر ۲۰۲۳ استفاده کردند که منجر به کشته شدن چهار نفر، از جمله سه دختر نوجوان شد.»
«کشته شدن چهار نفر»؟ شگفتآور است که این مقاله که در ۶ مارس ۲۰۲۵ منتشر شده است، از ذکر این نکته غفلت میکند که دهها هزار – و احتمالاً بسیار بیشتر – فلسطینی در این نسلکشی توسط اسرائیل کشته شدهاند. آیا دهها هزار مورد از این اشتباهات فنی رخ داده است؟ یا اینکه انسانهای اسرائیلی در حال اجرای نسلکشی هستند که رهبرانشان از قبل آن را اعلام کرده بودند؟
رساترین صداها در زمینهی هوش مصنوعی نیز همین رویکرد را اتخاذ میکنند. اندیشکدهی «AI Now»، که توسط شرکتهای همدست در این نسلکشی (مایکروسافت و گوگل) و فارغالتحصیلان کاخ سفید اوباما تأسیس شده است، تحلیلهای +۹۷۲ را بازیافت کرده و آن را به گونهای تنظیم کرده است که برای نهاد «امنیت ملی» ایالات متحده جذاب باشد. هیدی خلاءف از AI Now (کارمند سابق مایکروسافت) در مورد استفادهی ارتش اسرائیل از «هوش مصنوعی» به نشریهی Defense One گفت:
دادهها نادرست هستند و [مدلها] سعی میکنند الگوهایی را پیدا کنند که ممکن است وجود نداشته باشند، مانند عضویت در یک گروه واتساپ با یک… عضو حماس نباید شما را مستحق [حکم مرگ] کند. اما در این مورد، این چیزی است که ما مشاهده میکنیم.
مفهوم ضمنی در اینجا این است که اگر یک عضو حماس هدف قرار میگرفت، نه فقط کسی که در یک گروه واتساپ با او همگروه بود، آنگاه این قابل قبول بود؛ این به عنوان یک «اشتباه» ماشینی محسوب نمیشد. در این جهانبینی، آمریکاییها و اسرائیلیها به حق تصمیم میگیرند چه کسی در غزه زندگی کند و چه کسی بمیرد: آنها فقط باید این کار را مسئولانه انجام دهند.
یک نوع مشابه از تردستی زمانی رخ میدهد که از هوش مصنوعی در زمینههای دیگر یاد میشود. به عنوان مثال، وقتی صحبت از پلیس و زندانها به میان میآید، کارشناسان نگران «سوگیری» «الگوریتم صدور حکم» هستند (انگار که میتوان نظام کیفری ایالات متحده را «بیطرف» کرد). اما این الگوریتم نبود که باعث شد ایالات متحده نزدیک به دو میلیون نفر را زندانی کند، که به طور قابل توجهی بیشتر از چین و بیش از سه برابر هند است، در حالی که هر دو کشور چهار برابر جمعیت ایالات متحده را دارند. کارشناسان هوش مصنوعی به جای فکر کردن به چگونگی برچیدن این نظام نفرتانگیز و نژادپرستانه، اینجا هستند تا اطمینان حاصل کنند که آن دو میلیون نفر بدون سوگیری نامناسب انتخاب میشوند.
چه بحث در مورد پلیس باشد چه نسلکشی، این طبقهی کارشناس تنها راه حلی را ارائه میدهد که میشناسد: ایجاد مشارکتهای بیشتر بین «ذینفعان» – شرکتها، دولت، دانشگاهها و سازمانهای غیردولتی – در حالی که وعدهی «شفافیت»، «پاسخگویی» و «کاهش سوگیری» را میدهند. نسلکشی و حبس دستهجمعی عادلانه و بیطرفانه که توسط بهروزترین فناوریها ارائه میشود.
«میبینم، شلیک میکنم»
افسانهی یک وسیلهی خودکار و پیشرفته برای کنترل فلسطینیان، پیش از کوشش کنونی نسبت به هوش مصنوعی وجود داشته است. سالهاست که اسرائیل به سیستمهای تسلیحاتی خود میبالد و آنها را هم نفوذناپذیر و هم تقریباً کاملاً خودکار جلوه میدهد. یک ویدیو از سال ۲۰۰۹ ایستگاه سلاح کنترل از راه دور سامسون، ساخت شرکت رافائل، را در حال عمل در امتداد حصار استعماری غزه نشان میدهد. این سیستم در زبان عبری با نام «روآح-یورا» یا «میبینم، شلیک میکنم» شناخته میشود. اپراتورهای زن این سیستم (نام عبری از شکل مؤنث افعال «دیدن» و «شلیک کردن» استفاده میکند) در ارتباط با گروهی از دیگر سربازان زن هستند که حصار استعماری را زیر نظر دارند (تاتزپیتانیوت، که در عملیات طوفان الاقصی توسط مقاومت اسیر شدند). ویدیو میگوید وقتی آنها حرکات «ستیزهجویان حماس» را از دور میبینند، آنها را ساقط میکنند.
در سالهای اخیر، چنین سیستمهایی و بسیاری دیگر با نام تجاری جدید «هوش مصنوعی» معرفی شدهاند. روزنامهنگاران و کارشناسان سیاست، داستانهای زیادی را منتشر کردند مبنی بر اینکه ظاهراً حصار اسرائیل در اطراف غزه توسط «رباتهای هوش مصنوعی قاتل» گشتزنی میشود و عصر جدیدی از جنگ را رقم میزند. چنین داستانهایی به اسرائیل کمک میکند تا سلاحهای خود را در سراسر جهان به فروش برساند، همراه با افرادی که آنها را میسازند (اسرائیلیهایی که پس از خدمت در ارتش اسرائیل، در شرکتهایی مانند گوگل و مایکروسافت مشغول به کار میشوند).
اما در اینجا شکاف بزرگی بین تصویر و واقعیت وجود دارد. در سال ۲۰۱۸، دیدیم که چگونه حصار تقریباً «خودکار» از تکتیراندازان ارتش اسرائیل تشکیل شده بود که با هدف معلول کردن (یا کشتن) فلسطینیان شلیک میکردند. و در ۷ اکتبر ۲۰۲۳، دیدیم که چگونه مقاومت فلسطین از این حصار «هوش مصنوعی قاتل» عبور کرد و به راحتی از روی آن سر خورد، حتی یک ایستگاه «میبینم، شلیک میکنم» را از هوا منفجر کرد.
مایکروسافت و اسرائیل: «ازدواجی آسمانی»
داستانهای متمرکز بر هوش مصنوعی همچنان اصرار دارند که یک فناوری جادویی جدید وجود دارد که میتواند اسرائیل را قادر به آسیب رساندن بزرگ کند – و اگر فقط این فناوری تنظیم شود، مشکل حل خواهد شد. بار دیگر، +۹۷۲ با مقالهای از یووال آبراهام که قراردادهای مایکروسافت با اسرائیل برای سیستمهای پیشرفتهی «هوش مصنوعی» را شرح میدهد، زمینهی بحث را تعیین کرد. این داستان و داستانهای مشابه به عنوان «خبر فوری» ارائه شدهاند. آیا واقعاً چنین است؟
به خوبی مستند شده است که مایکروسافت (مانند گوگل و سایر شرکتها) دهههاست که به اسرائیل خدمات ارائه میدهد. این خدمات شامل خدمات معمول محاسباتی و ذخیرهسازی دادهها است که برای سرکوب و نظارت روزمره ضروری هستند اما ارتباط چندانی با هوش مصنوعی ندارند. مایکروسافت همچنین در سرزمینهای اشغالی ۱۹۴۸ فلسطین (که شامل یک مرکز دادهی جدید است که در اکتبر ۲۰۲۳ افتتاح شد) زمین اشغال کرده است. این شرکت همچنین برای تأمین نیروی کار خود به ارتش اسرائیل متکی است. استیو بالمر، مدیرعامل سابق مایکروسافت، زمانی گفت: «مایکروسافت به همان اندازه که یک شرکت آمریکایی است، یک شرکت اسرائیلی نیز هست»، در حالی که ساتیا نادلا، مدیرعامل فعلی مایکروسافت، «سرمایهی انسانی» تولید شده توسط نهاد صهیونیستی را ستود. همانطور که بنیامین نتانیاهو در دیدار سال ۲۰۱۶ با نادلا به مناسبت بیست و پنج سال همکاری خلاصه کرد: مایکروسافت و اسرائیل «ازدواجی آسمانی هستند که در اینجا روی زمین به رسمیت شناخته شده است.»
اخراجهای دانشجویان «مبتنی بر هوش مصنوعی»؟
اکنون شاهد موج دیگری از تبلیغات هوش مصنوعی پیرامون بازداشت و اخراج دانشجویان فعال در حمایت از فلسطین هستیم. داستانهای زیادی در مورد چگونگی استفادهی دولت ایالات متحده و گروههای صهیونیستی از هوش مصنوعی برای شناسایی افراد جهت اخراج منتشر میشود. بار دیگر، اصطلاح «هوش مصنوعی» برای بزک کردن پروژههای سیاسی قدیمی به کار میرود.
دهههاست که تهیهی فهرستهایی از افرادی که در رسانههای اجتماعی دارای معیارهای خاصی هستند، آسان بوده است – اساساً این پلتفرمها برای همین منظور ساخته شدهاند. جستجوی پستها برای کلمات کلیدی که دولت ممکن است اکنون آنها را «طرفدار ترور» بداند («مقاومت»، «استعمار شهرکنشینان»، «BDS» یا هر چیز دیگر)، ساده است. گام بعدی، تهیهی فهرستهایی از افراد بر اساس اینکه آیا مقالاتی از سایتهای خاص (مثلاً موندووایس یا اینتفاضهی الکترونیک) یا گروههای فعال (به عنوان مثال، دانشجویان برای عدالت در فلسطین) را به اشتراک گذاشتهاند یا خیر، میباشد.
استارتاپ صهیونیستی که میگوید از «هوش مصنوعی پیشرفته» برای شناسایی افراد استفاده میکند، به احتمال زیاد همین کارهای ساده را انجام میدهد، اما نامیدن آن به عنوان «هوش مصنوعی» باعث میشود این عملیات قدرتمندتر و پیچیدهتر به نظر برسد. این فراتر از یک برنامهی بازاریابی برای فروش بیش از حد یک فناوری با ادعای بهتر بودن آن از آنچه واقعاً هست، میرود.
تبلیغات هوش مصنوعی همچنین میتواند باعث شود فراموش کنیم که پلتفرمهای رسانههای اجتماعی برای نظارت و کسب سود طراحی شدهاند. جان بلامی فاستر و رابرت دبلیو. مکچسنی در مقالهی خود در سال ۲۰۱۴ در مورد سرمایهداری نظارتی، اشاره کردند که یکی از کاربردهای اولیهی ARPANET – شبکهی پنتاگون که در اواخر دههی ۱۹۶۰ ایجاد شد و بعدها به اینترنت تبدیل شد – ذخیرهی میلیونها پروندهای بود که دولت در مورد شهروندان آمریکایی درگیر در جنبشهای ضد جنگ جمعآوری کرده بود (معروف به پروندههای ارتش). پلتفرمهای دیجیتالی امروزی ما از همین تلاشها برای نظارت و کنترل جنبشهای اجتماعی نشأت گرفتهاند و توسط همان نهادها توسعه یافتهاند.
تمرکز بر (سوء) استفاده از «هوش مصنوعی» در مورد اخراجها همچنین توجه را از برخی سؤالات سیاسی مهم و دشوار منحرف میکند، از جمله: چرا بسیاری از گروههای فعال به پلتفرمهای ساخته شده توسط شرکتهایی که در خدمت امپریالیسم ایالات متحده هستند، وابسته هستند؟ چگونه میتوانیم این پلتفرمها را به چالش بکشیم و بر دههها تبلیغاتی که میگفت رسانههای اجتماعی ابزاری رهاییبخش برای مبارزات مردمی هستند، غلبه کنیم؟ در مورد فرهنگ فعالگرایی چه میتوان کرد که، حداقل در هستهی امپریالیستی، اغلب بیشتر بر ایجاد تصاویر مقاومت متمرکز است – و بدین ترتیب پلتفرمهای نظارتی را تغذیه میکند – تا اینکه به طور مادی خطوط لولهی سرکوبگر را مختل کند (همانطور که گروههایی مانند Palestine Action انجام دادهاند)؟ و اکنون که این پلتفرمهای دیجیتالی همهجا هستند و اطلاعات زیادی در مورد فعالان به راحتی در دسترس است، برای کاهش آسیبهای آنها چه میتوان کرد؟
پیاده شدن از قطار تبلیغات
هر از چند گاهی، یکی از مدیران انحصارات فناوری به رسانهها میگوید که از اینکه هوش مصنوعی قرار است جایگزین انسانها شود، نگران است. نسلهای متوالی از فیلمهای پرفروش هالیوود (۲۰۰۱: یک ادیسهی فضایی در ۱۹۶۸، ترمیناتور در ۱۹۸۴، ماتریکس در ۱۹۹۹، انتقامجویان: عصر اولتران در ۲۰۱۳، اطاعت در ۲۰۲۴ و بسیاری دیگر) ما را آموزش دادهاند که هوش مصنوعی را چیزی شگفتانگیز و وحشتناک تصور کنیم. در همان بازهی زمانی، تبلیغاتچیهای اسرائیلی تصویری مشابه از ارتش اسرائیل ارائه دادهاند: ماشینی شکستناپذیر و همهدان که مملو از هوش و فناوری است.
این قطارهای تبلیغاتی موازی – هوش مصنوعی و اسرائیل – اهداف یکسانی دارند: بزرگنمایی خودتصویر امپریالیستها به عنوان خدا، و ایجاد ناامیدی در کسانی که در تلاش برای مقاومت در برابر نسلکشی هستند. در واقع، همانطور که شورشیان ضد استعماری در طول قرنها فریاد زدهاند، ستمگران ما چیزی ندارند که ما نداشته باشیم. این نسلکشی میتواند متوقف شود. اگر متوقف شود، توسط انسانهایی که مقاومت میکنند متوقف خواهد شد، نه با تعمیر یک رایانه.
دربارهی یاردن کاتز
یاردن کاتز در دانشگاه میشیگان، آن آربور، در دپارتمان فرهنگ آمریکایی و مؤسسهی مطالعات دیجیتال تدریس میکند. او نویسندهی کتاب «سفیدی مصنوعی: سیاست و ایدئولوژی در هوش مصنوعی» (۲۰۲۰) است.
دربارهی جاستین پودور
جاستین پودور نویسندهای ساکن تورنتو و پژوهشگر نویسندگی در گلوبتروتر، پروژهای از مؤسسهی رسانههای مستقل است. میتوانید او را در وبسایتش به آدرس podur.org و در توییتر با نام کاربری @justinpodur پیدا کنید. او در دانشکدهی مطالعات محیطی دانشگاه یورک تدریس میکند. او نویسندهی رمان «محاصرهشکنان» است.

