نوشته‌ی یاردن کاتز و جاستین پودور
نمای هوایی از ویرانی‌های رفح، غزه، ژانویه ۲۰۲۵. (منبع: UNRWA، از طریق ویکی‌مدیا)
منتشر شده در مانتلی ریویو
ترجمه مجله جنوب جهانی

این روزها، روایتی فراگیر به گوش می‌رسد که نسل‌کشی اسرائیل در غزه را «هوش مصنوعی‌محور» معرفی می‌کند. بسیاری از صاحب‌نظران هشدار می‌دهند که این واقعه، سرآغاز عصری نوین در مخاصمات نظامی است؛ گویی برای نخستین بار، جنگی «خودکار» به راه افتاده است. نشریه‌ی معتبر فارن پالیسی با قاطعیت اعلام می‌کند که «هوش مصنوعی تعیین می‌کند چه کسی زندگی کند و چه کسی بمیرد». وبگاه وُکس نیز گزارش می‌دهد که «هوش مصنوعی به اسرائیل دستور می‌دهد کجا را بمباران کند». حتی واشنگتن پست پا را فراتر نهاده و مدعی است که «اسرائیل، نمایی اجمالی از دنیای هولناک هوش مصنوعی نظامی به نمایش می‌گذارد».


اما این روایت‌ها، نه از سر اشتباه، بلکه با هدفی مشخص، گمراه‌کننده‌اند. آن‌ها عامدانه توجه را از نهادها و ایدئولوژی‌های بنیادینی که مسئول این حجم عظیم از ویرانی هستند، و همچنین از مقیاس بی‌سابقه و تکان‌دهنده‌ی این فاجعه منحرف می‌کنند. این نوع چارچوب‌بندی، همچون دیگر توسل‌های پرطمطراق به مفهوم مبهم و اغلب نژادپرستانه آلوده‌ی «هوش مصنوعی»، زمینه‌ای را فراهم می‌آورد تا «کارشناسان» امپریالیست با راه حل‌های ناکارآمد و خیالی خود سر برسند. این به اصطلاح متخصصان، به جای آنکه به مبارزه با عاملان اصلی نسل‌کشی بپردازند و از مقاومت مشروع مردم فلسطین حمایت کنند، تلاش دارند تا تقصیر این جنایت هولناک را به گردن «سوء استفاده» از رایانه‌ها بیندازند – سوء استفاده‌هایی که وعده می‌دهند از طریق همکاری‌های تنگاتنگ خود با دولت ایالات متحده، شرکت‌های بزرگ و نهادهای دانشگاهی (همان‌هایی که بستر این نسل‌کشی را فراهم آورده‌اند) «اصلاح» کنند.


بمباران‌های «هوش مصنوعی‌محور»: روایتی مورد پسند سانسور نظامی اسرائیل


روایت کنونی و رایج درباره‌ی «نسل‌کشی هوش مصنوعی‌محور» در غزه، عمدتاً بر پایه‌ی مقالات یووال آبراهام، روزنامه‌نگار و فعال اسرائیلیِ همکار با رسانه‌ی +۹۷۲ شکل گرفته است. آبراهام بیشتر به خاطر کارگردانی مشترک مستند تحسین‌شده‌ی «هیچ سرزمین دیگری» شناخته می‌شود؛ فیلمی که تلاش‌های اسرائیل برای نابودی مسافر یطا و مقاومت الهام‌بخش ساکنان آن را به تصویر می‌کشد و اخیراً نیز جایزه‌ی اسکار را از آن خود کرده است. حمدان بلال، کارگردان فلسطینیِ همکار آبراهام – که به سادگی می‌توانست با دیگر همکار فلسطینی فیلم این داستان را روایت کند، اما بدون حمایت اسرائیل امکان حضور در مراسم اسکار را نمی‌یافت – در مارس ۲۰۲۵ توسط شهرک‌نشینان افراطی و ارتش اسرائیل ربوده و مورد ضرب و شتم قرار گرفت. شهرت و توجه پس از دریافت جایزه‌ی اسکار همچنین انتقادات موجهی را نسبت به اقدامات آبراهام برانگیخت؛ از جمله انتشار پروپاگاندای اسرائیلی درباره‌ی جنایات ۷ اکتبر و استفاده از فرصت سخنرانی در مراسم اسکار برای محکوم کردن حماس و ایجاد یک قیاس نادرست و گمراه‌کننده بین عملیات طوفان الاقصی و جنگ نسل‌کشانه‌ی اسرائیل.


در طول سال گذشته، آبراهام چندین مقاله منتشر کرده است که به عنوان مستندی برای ایده‌ی «نسل‌کشی هوش مصنوعی‌محور» مورد استفاده قرار گرفته‌اند، با این حال، خود آبراهام، به شکلی قابل توجه، هرگز از واژه‌ی «نسل‌کشی» استفاده نمی‌کند. برخی از این مقالات در همکاری مشترک بین +۹۷۲ و گاردین به چاپ رسیده‌اند و به طور گسترده توسط فعالان و رسانه‌های حامی فلسطین بازنشر شده‌اند. برای نمونه، وبگاه میدل ایست مانیتور، بر اساس همین گزارش‌ها، از عبارت «نسل‌کشی هوش مصنوعی‌محور اسرائیل» استفاده کرده است.
از آنجایی که +۹۷۲ یک رسانه‌ی اسرائیلی است، طبیعتاً تحت نظارت و سانسور نظامی اسرائیل قرار دارد. هر گزارشی که به مسائل «حساس» مربوط شود، پیش از انتشار باید توسط سانسورچیان نظامی تایید گردد تا اطمینان حاصل شود که به منافع «امنیتی» رژیم صهیونیستی آسیبی نمی‌رساند. و اگر مقالات آبراهام را با دقت مطالعه کنیم، چندان جای تعجب نیست که این مقالات از فیلتر سانسور عبور کرده‌اند؛ چرا که آن‌ها به شکلی ظریف و زیرکانه، ابعاد واقعی نسل‌کشی را کم‌اهمیت جلوه می‌دهند، مسئولیت این جنایات را از عاملان انسانی به ماشین‌ها منتقل می‌کنند و (خواه از روی عمد یا سهو) به ترویج فناوری‌های نظامی اسرائیل می‌پردازند.


تفاوت «هدف‌گیری هوش مصنوعی‌محور» با بمباران بی‌هدف و گسترده چیست؟


مقاله پر استناد آبراهام درباره‌ی سامانه‌ای به نام «لاوندر» (منتشر شده در ۳ آوریل ۲۰۲۴) با نقل قولی از کتابی که توسط ارتش اسرائیل به نگارش درآمده، آغاز می‌شود. این کتاب ادعا می‌کند که در فرآیند تعیین اهداف، یک «تنگنا» وجود دارد (ظاهراً سرعت عمل انسان‌ها در این زمینه بسیار پایین است) و پیشنهاد می‌دهد که «هوش مصنوعی» قادر به حل این مشکل خواهد بود و بدین ترتیب، تحولی بنیادین در ماهیت جنگ ایجاد خواهد کرد. آبراهام، به جای آنکه این پیش‌فرض را به چالش بکشد که ارتش اسرائیل از یک روش پیچیده و کارآمد برای «تولید اهداف» برخوردار است – ادعایی که به روایت اسرائیل مبنی بر استفاده از «هدف‌گیری دقیق» اسوار است – در نهایت نتیجه می‌گیرد که فناوری انقلابی که ارتش اسرائیل رویای آن را در سر می‌پرورانده، اکنون به واقعیت پیوسته است: این فناوری، همان سامانه‌ی «لاوندر» است.

منابع آبراهام، سربازان اسرائیلی هستند که او را متقاعد کرده‌اند که سامانه‌ی «لاوندر» «نقشی محوری در بمباران بی‌سابقه‌ی فلسطینیان ایفا کرده است». آبراهام می‌افزاید که منابع ناشناس او به او گفته‌اند که «تأثیر لاوندر بر عملیات نظامی به حدی بوده است که آن‌ها اساساً خروجی‌های این ماشین هوش مصنوعی را «همانند یک تصمیم انسانی» تلقی می‌کردند.»
در حقیقت، تمامی تصمیمات اتخاذ شده در طول این نسل‌کشی، «تصمیمات انسانی» هستند. حتی اگر در فرآیند اجرای این جنایت هولناک از رایانه استفاده شده باشد، این انسان‌ها هستند که تصمیم به استفاده از رایانه گرفته‌اند، نرم‌افزار آن را طراحی کرده‌اند، داده‌های ورودی را انتخاب کرده‌اند، معیارهای یک «خروجی» معتبر را تعیین کرده‌اند و در نهایت، مشخص کرده‌اند که چگونه این خروجی در تصمیم نهایی و انسانی برای کشتن افراد نقش خواهد داشت. ماشین‌ها ماشه را نمی‌کشند؛ این انسان‌ها هستند که این کار را انجام می‌دهند. در حالی که کارشناسان هوش مصنوعی درگیر بحث‌های انتزاعی و پوچ درباره‌ی سناریوهایی هستند که در آن ماشین‌ها به خودآگاهی می‌رسند و تصمیم می‌گیرند همه‌چیز را به گیره‌ی کاغذ تبدیل کنند، واقعیت این است که ماشین‌ها به تنهایی هیچ قدرتی ندارند. در دنیای واقعی، ما با سیستم‌ها و نهادهای مادی روبرو هستیم که در آن‌ها انسان‌ها تصمیمات سیاسی و اخلاقی اتخاذ می‌کنند. هیچ ماشینی خودمختار نیست؛ عملکرد هر ماشینی وابسته به منابعی است که توسط انسان‌ها تخصیص داده شده است و هر ماشینی در نهایت می‌تواند از منبع تغذیه جدا شود.
تخمین زده شده است که تا ژانویه ۲۰۲۵، بیش از ۷۰ درصد از ساختارهای موجود در غزه آسیب دیده یا به طور کامل تخریب شده‌اند. اسرائیل از اکتبر ۲۰۲۳ بیش از ۸۵۰۰۰ تن بمب بر سر این باریکه‌ی محاصره‌شده فرو ریخته است (علاوه بر آن، سیاست قحطی مهندسی‌شده و کمبود فاجعه‌بار تجهیزات پزشکی را نیز باید در نظر گرفت). به بیان ساده، تقریباً همه‌چیز در غزه بمباران شده است و بسیاری از مناطق، بر اساس گزارش‌های ساکنان غزه و تصاویر ماهواره‌ای، بارها مورد حمله قرار گرفته‌اند.


وقتی هدف، محو کامل است: چرا «تولید هدف» در نسل‌کشی غزه بی‌معناست؟


چرا باید به سازوکار «تولید هدف» اهمیت داد، وقتی که نهاد صهیونیستی از پیش تصمیم گرفته است تا تمامی نوار غزه را زیر آتش بگیرد؟ هدفی که سیاستمداران وقیح اسرائیلی سال‌هاست آن را فریاد می‌زنند: بازگرداندن غزه «به عصر حجر».
اسرائیل ابتدا مناطقی را بمباران کرد که محل سکونت مردم بود، و سپس، همان جاهایی را هدف قرار داد که مردم برای یافتن پناهگاه و اندکی غذا به آنجا پناه برده بودند. این رژیم عامدانه تمامی زیرساخت‌های حیاتی را که امکان تداوم زندگی را فراهم می‌کردند، مورد حمله قرار داد. تا ۲۶ اکتبر ۲۰۲۳، بیش از سی و پنج مرکز درمانی، از جمله بیست بیمارستان، زیر بمب‌های اسرائیل نابود شده بود. همان زمان، مری طرفه به درستی این اقدامات را مصداق بارز «منطق حذف» توصیف کرد؛ منطقی که بر اساس آن «استعمارگر، زیرساخت‌های پزشکی را نابود می‌کند تا توانایی زیستن را از مردم سلب کند، پس از آنکه در شکستن اراده‌ی آن‌ها ناکام می‌ماند.» اکنون، شمار زیادی از بیمارستان‌ها بارها و بارها بمباران شده‌اند. هدف غایی اسرائیل، نابودی هر آن چیزی بود که برای زندگی در غزه ارزشمند تلقی می‌شد؛ از مساجد و نانوایی‌ها گرفته تا تأسیسات حیاتی آب و فاضلاب (که تا اوایل اکتبر ۲۰۲۴، ۸۵ درصد آن‌ها ویران شده بودند).
حال، وقتی سیاست استعماری شهرک‌نشینان چیزی جز حذف و نابودی نیست، مفهوم «تولید هدف» چه معنایی می‌تواند داشته باشد؟ و با توجه به اینکه اسرائیل بی‌وقفه و همه‌جانبه در حال بمباران بوده است، این همه هیاهو و تمرکز بر داستان‌های مربوط به هدف‌گیری مبتنی بر هوش مصنوعی برای چیست؟ این تأکید بر «تولید هدف»، به طرز زیرکانه‌ای از نیت واقعی نسل‌کشی کاسته و عاملان این جنایات را به نوعی قربانی، مهره‌های بی‌اراده‌ی ماشین، جلوه می‌دهد. یووال آبراهام در این باره می‌نویسد:
ارتش [اسرائیل] به افسران خود اختیارات تام داد تا فهرست‌های کشتار تهیه‌شده توسط سامانه‌ی «لاوندر» را بدون هیچ‌گونه الزام به بررسی دقیق دلایل انتخاب‌های این سیستم یا تحلیل داده‌های اطلاعاتی اولیه‌ی مبنای آن، بپذیرند. یک منبع آگاه اظهار داشت که پرسنل انسانی اغلب صرفاً نقش «مهر تأیید» را برای تصمیمات این ماشین ایفا می‌کردند… این در حالی بود که آن‌ها می‌دانستند این سیستم تقریباً در ۱۰ درصد موارد دچار «اشتباه» می‌شود و سابقه‌ی علامت‌گذاری افرادی را دارد که تنها ارتباطی کمرنگ با گروه‌های شبه‌نظامی دارند یا اصلاً هیچ ارتباطی با آن‌ها ندارند.
اما بار دیگر تأکید می‌کنیم: این‌ها «تصمیمات ماشین» نیستند. اسرائیل هرگز برای بمباران بی‌هدف و گسترده‌ی فلسطینیان نیازی به «هوش مصنوعی» نداشته است. نابودی کامل مناطق مسکونی، سیاستی دیرینه و ریشه‌دار در تفکر صهیونیستی است. اینکه گفته شود این حملات عمدتاً «شبه‌نظامیان» را هدف قرار می‌دهند و انحرافات جزئی ناشی از «اشتباهات» فنی رخ می‌دهد، تلاشی آشکار برای تطهیر ماهیت نسل‌کشانه‌ی اسرائیل است. این رویکرد، همچنین به شکلی اغراق‌آمیز «هوش مصنوعی» را به عنوان یک فناوری انقلابی و خودگردان ارتقا می‌بخشد.


آبراهام با گرفتار شدن در منطق «تولید هدف»، ناخواسته تبلیغاتی را نیز تقویت می‌کند که بر اساس آن، ارتش اسرائیل در سایر موارد به اصول «اخلاقی» خاصی پایبند است. ارتش اسرائیل به دلیل سابقه‌ی خود در انتصاب فیلسوفان برای تدوین «منشور اخلاق ارتش» و همچنین وکلایی که ظاهراً بر رعایت قوانین بین‌المللی نظارت می‌کنند، بدنام است. به ادعای اسرائیل، همین «کارشناسان» هستند که میزان قابل قبول «خسارت جانبی» را تعیین می‌کنند.
آبراهام می‌نویسد که ارتش اسرائیل اخیراً «در اقدامی بی‌سابقه» تصمیم گرفته است که «برای هر نیروی دون‌پایه‌ی حماس که توسط سامانه‌ی لاوندر علامت‌گذاری شده است، کشتن تا ۱۵ یا ۲۰ غیرنظامی مجاز است؛ در گذشته، ارتش در جریان ترور شبه‌نظامیان رده‌پایین هیچ‌گونه «خسارت جانبی» را مجاز نمی‌دانست.» او می‌افزاید که «در صورتی که هدف یک مقام ارشد حماس با رتبه‌ی فرمانده گردان یا تیپ باشد، ارتش در چندین مورد کشتن بیش از ۱۰۰ غیرنظامی را در جریان ترور یک فرمانده مجاز کرده است.»
این نوع چارچوب‌بندی طوری القا می‌کند که سیاست اسرائیل مبتنی بر حذف کامل نیست، بلکه ارتش اسرائیل صرفاً آستانه‌ی «اخلاقی» خود را از میزانی قابل قبول (حدود پانزده غیرنظامی در ازای هر هدف) به سطحی تغییر داده است که حتی از دیدگاه صهیونیست‌های لیبرال نیز افراطی به نظر می‌رسد (حدود صد غیرنظامی در ازای هر هدف). البته، این گزارش هرگز اصل هدف قرار دادن مقاومت را به چالش نمی‌کشد. تلویحاً پذیرفته شده است که اگر اسرائیل بتواند هر یک از اعضای «مهم» حماس را با دقت بیشتری به قتل برساند، هیچ مشکلی وجود نخواهد داشت.
آبراهام در مصاحبه‌ای با پادکست +۹۷۲ به زبان عبری به این نکته اشاره می‌کند. مصاحبه‌کننده می‌پرسد: «این افرادی که توسط لاوندر علامت‌گذاری شده‌اند، آیا ما هیچ راهی برای دانستن اینکه واقعاً در حماس فعال هستند نداریم؟» آبراهام پاسخ می‌دهد:
قبل از جنگ، لاوندر صرفاً یک ابزار کمکی بود. به ما سرنخ می‌داد. مثلاً، یک تماس تلفنی وجود داشت و فردی که در آن تماس بود، در پایگاه داده‌ی لاوندر ثبت شده بود. خب، عالی است، پس او یک مظنون است. شاید او عضو حماس باشد، شاید هم نباشد. شاید او فقط الگوهای ارتباطی مشابهی با اعضای حماس داشته باشد. به عنوان مثال، روزنامه‌نگارانی که به طور مرتب با اعضای حماس گفتگو می‌کنند، در تجمعات آن‌ها شرکت می‌کنند و از آن‌ها عکس می‌گیرند، ممکن است الگوهای ارتباطی مشابهی داشته باشند.
آبراهام می‌گوید این «جنون ۷ اکتبر» بود که به طرز چشمگیری اوضاع را تغییر داد. ظاهراً ارتش اسرائیل شروع به پذیرش توصیه‌های لاوندر به عنوان حقیقت مطلق کرد، بدون هیچ‌گونه «تأیید» بیشتر، علیرغم آگاهی از اینکه لاوندر «از هر ده مورد، یک مورد» به اشتباه فردی را به عنوان «عضو فعال حماس» شناسایی می‌کند.


آیا «لاوندر» اصلاً وجود دارد؟


ما حتی نمی‌توانیم با اطمینان بگوییم که سامانه‌ی «لاوندر» آن‌گونه که +۹۷۲ توصیف می‌کند، وجود خارجی دارد. برخلاف افشاگری‌های ادوارد اسنودن در سال ۲۰۱۳ درباره‌ی نظارت گسترده‌ی آژانس امنیت ملی آمریکا و شرکت‌های همکار، آبراهام هیچ سند داخلی در مورد این سیستم ارائه نمی‌دهد. +۹۷۲ ادعا می‌کند که فیلمی از یک ارائه‌ی ارتش اسرائیل در دانشگاه تل‌آویو در مورد «ماشین‌های هدف‌گیری انسانی» به همراه اسلایدهای آن ارائه را به دست آورده است، اما نه آن فیلم و نه اسلایدهای کامل منتشر نشده‌اند. مقاله‌ی آبراهام تنها دو اسلاید از این ارائه را نشان می‌دهد که فاقد جزئیات هستند و هیچ نام سیستمی در آن‌ها ذکر نشده است. حتی اگر آبراهام به اسناد مفصلی دسترسی داشت، سانسور نظامی اسرائیل اجازه‌ی انتشار آن‌ها را نمی‌داد (و به همین دلیل است که رسانه‌های اسرائیلی مانند +۹۷۲ نمی‌توانند گزارش‌های جدی در مورد این موضوعات تهیه کنند).
حتی اگر «لاوندر» وجود داشته باشد، به همان اندازه می‌تواند فهرستی از مختصات GPS تمام ساختارهای غزه باشد. نتیجه تفاوتی با آنچه شاهد هستیم نخواهد داشت: تخریب کامل. هیچ ابرماشینی در اختیار ارتش اسرائیل نیست که به آن‌ها بگوید کجا را بمباران کنند. اجبارها و ایدئولوژی‌های آن‌ها را نمی‌توان در رایانه یافت.
این داستان که آنچه در غزه رخ می‌دهد ناشی از یک ماشین است، طوری جلوه می‌دهد که برخی سربازان اسرائیلی موضعی اخلاقی اتخاذ کرده‌اند. آبراهام در مصاحبه با دموکراسی نو! گفت که برخی از خبرچین‌های او «از ارتکاب فجایع و مشارکت در کارها و کشتن خانواده‌ها شوکه شده بودند و احساس می‌کردند این غیرقابل توجیه است. و فکر می‌کنم آن‌ها احساس مسئولیت می‌کردند.» او افزود که «آن‌ها احساس نیاز به اشتراک گذاشتن این اطلاعات با جهان داشتند، از این حس که مردم متوجه نمی‌شوند.» چرا شوک آن‌ها مانع از اطاعت از دستورات نسل‌کشانه‌شان نشد؟
آبراهام در هیچ موردی چنین امتناع‌هایی را تأیید نمی‌کند. وقتی رسانه‌های اسرائیلی از او پرسیدند که آیا فکر می‌کند سربازان اسرائیلی باید از دستور اخراج فلسطینیان از خانه‌هایشان در مسافر یطا (اخراج‌هایی که در فیلم «هیچ سرزمین دیگری» مستند شده است) سرپیچی کنند، آبراهام پاسخ داد: «من در جایگاهی نیستم که چیزی در این مورد بگویم. هر کس باید طبق وجدان خود عمل کند… تأکید ما بر سرباز فردی نیست.»
به نظر می‌رسد سربازان خبرچین آبراهام هیچ وجدانی ندارند. این سربازان نه تنها نسل‌کشی را تصدیق نمی‌کنند، بلکه آن را به چالش هم نمی‌کشند. آن‌ها صرفاً سؤالاتی را در مورد پروتکل «تولید هدف» مطرح می‌کنند (ظاهراً بدون اینکه متوجه شوند تمام غزه مورد نظر است). خبرچین‌های آبراهام به او گفتند که آن‌ها برای بسیاری از اهداف از بمب‌های «احمق» استفاده می‌کردند که خسارات سنگینی وارد می‌کنند، نه بمب‌های به اصطلاح هوشمند که خسارات موضعی‌تری ایجاد می‌کنند. برخی از سربازان این کار را توجیه کردند. یک سرباز به آبراهام گفت: «شما نمی‌خواهید بمب‌های گران‌قیمت [هوشمند] را روی افراد بی‌اهمیت هدر دهید – برای کشور بسیار پرهزینه است و کمبود [آن بمب‌ها] وجود دارد.» دیگری به طور مشابه گفت: «حیف است بمب‌ها را روی فلسطینیانی که «عوامل مهم حماس» نیستند هدر دهیم.»

با این حال، یک خبرچین دیگر به آبراهام گفت که بمباران غزه از نظر مقیاس بی‌سابقه است، اما «من به یک مکانیسم آماری بسیار بیشتر از سربازی که دو روز پیش دوستش را از دست داده اعتماد دارم. همه آنجا، از جمله من، در ۷ اکتبر عزیزانمان را از دست دادیم. ماشین این کار را سرد و بی‌روح انجام داد. و این کار را آسان‌تر کرد.» این هر چیزی که باشد، اسمش مقاومت در برابر نسل‌کشی نیست.
پاسخ رسمی اسرائیل به موضوع لاوندر در واقع به حقیقت نزدیک‌تر از پوشش +۹۷۲ است. ارتش اسرائیل به رسانه‌های اسرائیلی گفت که «بمب‌های احمق» که بر سر غزه می‌ریزد، سلاح‌های جنگی استاندارد هستند. در مورد لاوندر، ارتش اسرائیل گفت که «از هوش مصنوعی برای گفتن یا پیش‌بینی اینکه آیا یک فرد تروریست است استفاده نمی‌کنند» و افزود که پایگاه‌های داده‌های اطلاعاتی «فقط ابزاری» برای تحلیلگران نظامی هستند که تصمیم‌گیری می‌کنند.


«هوش مصنوعی» پناهگاه شیادان است


نکته‌ای که تقریباً تمام بحث‌های مربوط به هوش مصنوعی از آن غافل می‌شوند، انعطاف‌پذیری این اصطلاح است. سیستم‌هایی که برای دهه‌ها مورد استفاده قرار گرفته‌اند، با نام تجاری جدید «هوش مصنوعی» معرفی شده‌اند. اساساً هر چیزی که شامل یک رایانه باشد، در زمینه‌ی مناسب می‌تواند «هوش مصنوعی» تلقی شود، از سیستم‌هایی که حق بیمه را محاسبه می‌کنند تا ساده‌ترین عبارت «اگر-آنگاه». نامیدن چیزی به عنوان هوش مصنوعی صرفاً بازاریابی است، پوششی تازه بر اهداف سیاسی قدیمی. اصطلاح «هوش مصنوعی» برای نهادهای سرکوبگر مفید است زیرا با بسیاری از ایدئولوژی‌ها در مورد سلسله مراتب هوش، کار و محدودیت‌های ذهن انسان مرتبط می‌شود.
اگر «الگوریتمی» برای آنچه اسرائیل انجام می‌دهد وجود داشته باشد، می‌توان آن را با یک عبارت ساده «اگر-آنگاه» خلاصه کرد: «اگر برای زندگی بومیان ضروری است، پس سعی کن آن را نابود کنی.» این منطقی است که دولت‌های استعماری شهرک‌نشین از مدت‌ها قبل از وجود رایانه‌های دیجیتال از آن پیروی می‌کردند. نیازی به توسل به «هوش مصنوعی» نیست.
اگر ما فرض «نسل‌کشی مبتنی بر هوش مصنوعی» را بپذیریم، پس مشکل خود ایدئولوژی نژادپرستانه و صهیونیستی نیست؛ ما صرفاً به متخصصانی نیاز داریم که به ما در تعمیر رایانه کمک کنند، رایانه‌ای که «تصمیماتش» کمتر از حد کامل بوده است.
گزارش آبراهام (که با همکاری هری دیویس نوشته شده است) در مورد استفاده‌ی فرضی اسرائیل از سیستمی شبیه ChatGPT، که هم در +۹۷۲ و هم در گاردین منتشر شده است، نمونه‌ی بارز این موضوع است. آبراهام در ابتدا این سیستم را به گونه‌ای توصیف می‌کند که شبیه روابط عمومی برای فناوری‌های اسرائیلی به نظر می‌رسد: ابزاری که توسط «یگان جنگ سایبری نخبه» ارتش اسرائیل ایجاد شده است و «مقادیر عظیمی از اطلاعات جمع‌آوری‌شده در مورد زندگی روزمره‌ی فلسطینیان ساکن تحت اشغال به آن داده می‌شود.» با این حال، جنبه‌های منفی نیز وجود دارد. کارشناس دیویس و آبراهام در این زمینه، بریانا روزن، مشاور سابق امنیت ملی کاخ سفید است.


همان‌طور که قابل پیش‌بینی بود، روزن به خبرنگاران گفت که ChatGPT ظرفیت بسیار زیادی برای دولت دارد؛ به این صورت که می‌تواند «تهدیداتی را که ممکن است از دید انسان پنهان بماند، حتی پیش از آنکه به وجود بیایند، شناسایی کند.» با این حال، او به «خطراتی» همچون «ایجاد ارتباطات اشتباه و رسیدن به نتایج نادرست» نیز اشاره کرد. روزن، مانند بسیاری دیگر از کسانی که در خدمت منافع قدرت‌های بزرگ هستند، ادعا می‌کند که در واقع این هوش مصنوعی است که اکنون جنگ را به راه انداخته و او می‌خواهد «شفافیت» و «پاسخگویی» آن را بهبود ببخشد. این اقدامات به بهانه‌ی «امنیت ملی» صورت می‌گیرد. سؤالاتی که روزن می‌خواهد ما بر آن‌ها تمرکز کنیم از این قرارند:
اسرائیل برای پیشگیری از خطاها، توهمات، سوء استفاده و حتی فساد در سیستم‌های هدف‌گیری مبتنی بر هوش مصنوعی چه تمهیداتی اندیشیده است؟ آیا مقامات اسرائیلی می‌توانند به طور کامل توضیح دهند که خروجی‌های این سیستم‌های هدف‌گیری چگونه تولید شده‌اند؟ چه میزان اطمینان در مورد قابلیت ردیابی و توضیح نتایج وجود دارد؟
روزن در نهایت می‌گوید که مشخص نیست «هوش مصنوعی مسئولانه» چگونه در عمل به کار گرفته می‌شود. یکی از انتقادات او این است که اسرائیل، که او آن را «متحد کلیدی ایالات متحده» می‌نامد، اصول اخلاق هوش مصنوعی را که کشورهای پیشرفته‌ای مانند ایالات متحده پذیرفته‌اند، تأیید نکرده است (او اشاره می‌کند که روسیه نیز چنین رویکردی دارد). برای نمونه، در سال ۲۰۲۰، پنتاگون بیانیه‌ای با عنوان «اصول اخلاقی هوش مصنوعی» منتشر کرد که شامل مفاهیمی چون «مسئولیت‌پذیری»، «قابلیت ردیابی» و استفاده‌ی «منصفانه» (که وعده داده شده «سوگیری ناخواسته» را کاهش می‌دهد) می‌شود. کاش اسرائیل هم می‌توانست به همین اندازه اخلاقی عمل کند!
این کارشناسان در نشست‌هایی مانند «اجلاس هوش مصنوعی مسئولانه در حوزه‌ی نظامی» (۲۰۲۴) و «کنفرانس جهانی هوش مصنوعی، امنیت و اخلاق» (۲۰۲۵) که با حمایت مالی مایکروسافت و میزبانی سازمان ملل متحد برگزار می‌شود، درباره‌ی این مسائل مهم بحث و تبادل نظر می‌کنند. می‌توان با اطمینان گفت که اگر هنری کیسینجر (که در اواخر عمر خود را به عنوان یک «کارشناس هوش مصنوعی» جا زد) هنوز زنده بود، بدون شک یکی از سخنرانان اصلی این کنفرانس‌های «هوش مصنوعی مسئولانه برای جنگ» می‌شد.
دیویس و آبراهام نمونه‌ای از پیامدهای «غیرمسئولانه» بودن هوش مصنوعی ارائه می‌دهند. آن‌ها در مقاله‌شان درباره‌ی سیستم مشابه ChatGPT ارتش اسرائیل، به موردی اشاره می‌کنند که «احتمالاً افسران اطلاعاتی از هوش مصنوعی برای کمک به انتخاب هدف در حمله‌ی هوایی اسرائیل به غزه در نوامبر ۲۰۲۳ استفاده کردند که منجر به کشته شدن چهار نفر، از جمله سه دختر نوجوان شد.»
«کشته شدن چهار نفر»؟ شگفت‌آور است که این مقاله که در ۶ مارس ۲۰۲۵ منتشر شده است، از ذکر این نکته غفلت می‌کند که ده‌ها هزار – و احتمالاً بسیار بیشتر – فلسطینی در این نسل‌کشی توسط اسرائیل کشته شده‌اند. آیا ده‌ها هزار مورد از این اشتباهات فنی رخ داده است؟ یا اینکه انسان‌های اسرائیلی در حال اجرای نسل‌کشی هستند که رهبرانشان از قبل آن را اعلام کرده بودند؟


رساترین صداها در زمینه‌ی هوش مصنوعی نیز همین رویکرد را اتخاذ می‌کنند. اندیشکده‌ی «AI Now»، که توسط شرکت‌های همدست در این نسل‌کشی (مایکروسافت و گوگل) و فارغ‌التحصیلان کاخ سفید اوباما تأسیس شده است، تحلیل‌های +۹۷۲ را بازیافت کرده و آن را به گونه‌ای تنظیم کرده است که برای نهاد «امنیت ملی» ایالات متحده جذاب باشد. هیدی خلاءف از AI Now (کارمند سابق مایکروسافت) در مورد استفاده‌ی ارتش اسرائیل از «هوش مصنوعی» به نشریه‌ی Defense One گفت:
داده‌ها نادرست هستند و [مدل‌ها] سعی می‌کنند الگوهایی را پیدا کنند که ممکن است وجود نداشته باشند، مانند عضویت در یک گروه واتساپ با یک… عضو حماس نباید شما را مستحق [حکم مرگ] کند. اما در این مورد، این چیزی است که ما مشاهده می‌کنیم.
مفهوم ضمنی در اینجا این است که اگر یک عضو حماس هدف قرار می‌گرفت، نه فقط کسی که در یک گروه واتساپ با او همگروه بود، آنگاه این قابل قبول بود؛ این به عنوان یک «اشتباه» ماشینی محسوب نمی‌شد. در این جهان‌بینی، آمریکایی‌ها و اسرائیلی‌ها به حق تصمیم می‌گیرند چه کسی در غزه زندگی کند و چه کسی بمیرد: آن‌ها فقط باید این کار را مسئولانه انجام دهند.
یک نوع مشابه از تردستی زمانی رخ می‌دهد که از هوش مصنوعی در زمینه‌های دیگر یاد می‌شود. به عنوان مثال، وقتی صحبت از پلیس و زندان‌ها به میان می‌آید، کارشناسان نگران «سوگیری» «الگوریتم صدور حکم» هستند (انگار که می‌توان نظام کیفری ایالات متحده را «بی‌طرف» کرد). اما این الگوریتم نبود که باعث شد ایالات متحده نزدیک به دو میلیون نفر را زندانی کند، که به طور قابل توجهی بیشتر از چین و بیش از سه برابر هند است، در حالی که هر دو کشور چهار برابر جمعیت ایالات متحده را دارند. کارشناسان هوش مصنوعی به جای فکر کردن به چگونگی برچیدن این نظام نفرت‌انگیز و نژادپرستانه، اینجا هستند تا اطمینان حاصل کنند که آن دو میلیون نفر بدون سوگیری نامناسب انتخاب می‌شوند.
چه بحث در مورد پلیس باشد چه نسل‌کشی، این طبقه‌ی کارشناس تنها راه حلی را ارائه می‌دهد که می‌شناسد: ایجاد مشارکت‌های بیشتر بین «ذینفعان» – شرکت‌ها، دولت، دانشگاه‌ها و سازمان‌های غیردولتی – در حالی که وعده‌ی «شفافیت»، «پاسخگویی» و «کاهش سوگیری» را می‌دهند. نسل‌کشی و حبس دسته‌جمعی عادلانه و بی‌طرفانه که توسط به‌روزترین فناوری‌ها ارائه می‌شود.


«می‌بینم، شلیک می‌کنم»


افسانه‌ی یک وسیله‌ی خودکار و پیشرفته برای کنترل فلسطینیان، پیش از کوشش کنونی نسبت به هوش مصنوعی وجود داشته است. سال‌هاست که اسرائیل به سیستم‌های تسلیحاتی خود می‌بالد و آن‌ها را هم نفوذناپذیر و هم تقریباً کاملاً خودکار جلوه می‌دهد. یک ویدیو از سال ۲۰۰۹ ایستگاه سلاح کنترل از راه دور سامسون، ساخت شرکت رافائل، را در حال عمل در امتداد حصار استعماری غزه نشان می‌دهد. این سیستم در زبان عبری با نام «روآح-یورا» یا «می‌بینم، شلیک می‌کنم» شناخته می‌شود. اپراتورهای زن این سیستم (نام عبری از شکل مؤنث افعال «دیدن» و «شلیک کردن» استفاده می‌کند) در ارتباط با گروهی از دیگر سربازان زن هستند که حصار استعماری را زیر نظر دارند (تاتزپیتانیوت، که در عملیات طوفان الاقصی توسط مقاومت اسیر شدند). ویدیو می‌گوید وقتی آن‌ها حرکات «ستیزه‌جویان حماس» را از دور می‌بینند، آن‌ها را ساقط می‌کنند.
در سال‌های اخیر، چنین سیستم‌هایی و بسیاری دیگر با نام تجاری جدید «هوش مصنوعی» معرفی شده‌اند. روزنامه‌نگاران و کارشناسان سیاست، داستان‌های زیادی را منتشر کردند مبنی بر اینکه ظاهراً حصار اسرائیل در اطراف غزه توسط «ربات‌های هوش مصنوعی قاتل» گشت‌زنی می‌شود و عصر جدیدی از جنگ را رقم می‌زند. چنین داستان‌هایی به اسرائیل کمک می‌کند تا سلاح‌های خود را در سراسر جهان به فروش برساند، همراه با افرادی که آن‌ها را می‌سازند (اسرائیلی‌هایی که پس از خدمت در ارتش اسرائیل، در شرکت‌هایی مانند گوگل و مایکروسافت مشغول به کار می‌شوند).


اما در اینجا شکاف بزرگی بین تصویر و واقعیت وجود دارد. در سال ۲۰۱۸، دیدیم که چگونه حصار تقریباً «خودکار» از تک‌تیراندازان ارتش اسرائیل تشکیل شده بود که با هدف معلول کردن (یا کشتن) فلسطینیان شلیک می‌کردند. و در ۷ اکتبر ۲۰۲۳، دیدیم که چگونه مقاومت فلسطین از این حصار «هوش مصنوعی قاتل» عبور کرد و به راحتی از روی آن سر خورد، حتی یک ایستگاه «می‌بینم، شلیک می‌کنم» را از هوا منفجر کرد.
مایکروسافت و اسرائیل: «ازدواجی آسمانی»
داستان‌های متمرکز بر هوش مصنوعی همچنان اصرار دارند که یک فناوری جادویی جدید وجود دارد که می‌تواند اسرائیل را قادر به آسیب رساندن بزرگ کند – و اگر فقط این فناوری تنظیم شود، مشکل حل خواهد شد. بار دیگر، +۹۷۲ با مقاله‌ای از یووال آبراهام که قراردادهای مایکروسافت با اسرائیل برای سیستم‌های پیشرفته‌ی «هوش مصنوعی» را شرح می‌دهد، زمینه‌ی بحث را تعیین کرد. این داستان و داستان‌های مشابه به عنوان «خبر فوری» ارائه شده‌اند. آیا واقعاً چنین است؟
به خوبی مستند شده است که مایکروسافت (مانند گوگل و سایر شرکت‌ها) دهه‌هاست که به اسرائیل خدمات ارائه می‌دهد. این خدمات شامل خدمات معمول محاسباتی و ذخیره‌سازی داده‌ها است که برای سرکوب و نظارت روزمره ضروری هستند اما ارتباط چندانی با هوش مصنوعی ندارند. مایکروسافت همچنین در سرزمین‌های اشغالی ۱۹۴۸ فلسطین (که شامل یک مرکز داده‌ی جدید است که در اکتبر ۲۰۲۳ افتتاح شد) زمین اشغال کرده است. این شرکت همچنین برای تأمین نیروی کار خود به ارتش اسرائیل متکی است. استیو بالمر، مدیرعامل سابق مایکروسافت، زمانی گفت: «مایکروسافت به همان اندازه که یک شرکت آمریکایی است، یک شرکت اسرائیلی نیز هست»، در حالی که ساتیا نادلا، مدیرعامل فعلی مایکروسافت، «سرمایه‌ی انسانی» تولید شده توسط نهاد صهیونیستی را ستود. همانطور که بنیامین نتانیاهو در دیدار سال ۲۰۱۶ با نادلا به مناسبت بیست و پنج سال همکاری خلاصه کرد: مایکروسافت و اسرائیل «ازدواجی آسمانی هستند که در اینجا روی زمین به رسمیت شناخته شده است.»
اخراج‌های دانشجویان «مبتنی بر هوش مصنوعی»؟

اکنون شاهد موج دیگری از تبلیغات هوش مصنوعی پیرامون بازداشت و اخراج دانشجویان فعال در حمایت از فلسطین هستیم. داستان‌های زیادی در مورد چگونگی استفاده‌ی دولت ایالات متحده و گروه‌های صهیونیستی از هوش مصنوعی برای شناسایی افراد جهت اخراج منتشر می‌شود. بار دیگر، اصطلاح «هوش مصنوعی» برای بزک کردن پروژه‌های سیاسی قدیمی به کار می‌رود.
دهه‌هاست که تهیه‌ی فهرست‌هایی از افرادی که در رسانه‌های اجتماعی دارای معیارهای خاصی هستند، آسان بوده است – اساساً این پلتفرم‌ها برای همین منظور ساخته شده‌اند. جستجوی پست‌ها برای کلمات کلیدی که دولت ممکن است اکنون آن‌ها را «طرفدار ترور» بداند («مقاومت»، «استعمار شهرک‌نشینان»، «BDS» یا هر چیز دیگر)، ساده است. گام بعدی، تهیه‌ی فهرست‌هایی از افراد بر اساس اینکه آیا مقالاتی از سایت‌های خاص (مثلاً موندووایس یا اینتفاضه‌ی الکترونیک) یا گروه‌های فعال (به عنوان مثال، دانشجویان برای عدالت در فلسطین) را به اشتراک گذاشته‌اند یا خیر، می‌باشد.
استارتاپ صهیونیستی که می‌گوید از «هوش مصنوعی پیشرفته» برای شناسایی افراد استفاده می‌کند، به احتمال زیاد همین کارهای ساده را انجام می‌دهد، اما نامیدن آن به عنوان «هوش مصنوعی» باعث می‌شود این عملیات قدرتمندتر و پیچیده‌تر به نظر برسد. این فراتر از یک برنامه‌ی بازاریابی برای فروش بیش از حد یک فناوری با ادعای بهتر بودن آن از آنچه واقعاً هست، می‌رود.
تبلیغات هوش مصنوعی همچنین می‌تواند باعث شود فراموش کنیم که پلتفرم‌های رسانه‌های اجتماعی برای نظارت و کسب سود طراحی شده‌اند. جان بلامی فاستر و رابرت دبلیو. مک‌چسنی در مقاله‌ی خود در سال ۲۰۱۴ در مورد سرمایه‌داری نظارتی، اشاره کردند که یکی از کاربردهای اولیه‌ی ARPANET – شبکه‌ی پنتاگون که در اواخر دهه‌ی ۱۹۶۰ ایجاد شد و بعدها به اینترنت تبدیل شد – ذخیره‌ی میلیون‌ها پرونده‌ای بود که دولت در مورد شهروندان آمریکایی درگیر در جنبش‌های ضد جنگ جمع‌آوری کرده بود (معروف به پرونده‌های ارتش). پلتفرم‌های دیجیتالی امروزی ما از همین تلاش‌ها برای نظارت و کنترل جنبش‌های اجتماعی نشأت گرفته‌اند و توسط همان نهادها توسعه یافته‌اند.
تمرکز بر (سوء) استفاده از «هوش مصنوعی» در مورد اخراج‌ها همچنین توجه را از برخی سؤالات سیاسی مهم و دشوار منحرف می‌کند، از جمله: چرا بسیاری از گروه‌های فعال به پلتفرم‌های ساخته شده توسط شرکت‌هایی که در خدمت امپریالیسم ایالات متحده هستند، وابسته هستند؟ چگونه می‌توانیم این پلتفرم‌ها را به چالش بکشیم و بر دهه‌ها تبلیغاتی که می‌گفت رسانه‌های اجتماعی ابزاری رهایی‌بخش برای مبارزات مردمی هستند، غلبه کنیم؟ در مورد فرهنگ فعال‌گرایی چه می‌توان کرد که، حداقل در هسته‌ی امپریالیستی، اغلب بیشتر بر ایجاد تصاویر مقاومت متمرکز است – و بدین ترتیب پلتفرم‌های نظارتی را تغذیه می‌کند – تا اینکه به طور مادی خطوط لوله‌ی سرکوبگر را مختل کند (همانطور که گروه‌هایی مانند Palestine Action انجام داده‌اند)؟ و اکنون که این پلتفرم‌های دیجیتالی همه‌جا هستند و اطلاعات زیادی در مورد فعالان به راحتی در دسترس است، برای کاهش آسیب‌های آن‌ها چه می‌توان کرد؟


پیاده شدن از قطار تبلیغات


هر از چند گاهی، یکی از مدیران انحصارات فناوری به رسانه‌ها می‌گوید که از اینکه هوش مصنوعی قرار است جایگزین انسان‌ها شود، نگران است. نسل‌های متوالی از فیلم‌های پرفروش هالیوود (۲۰۰۱: یک ادیسه‌ی فضایی در ۱۹۶۸، ترمیناتور در ۱۹۸۴، ماتریکس در ۱۹۹۹، انتقام‌جویان: عصر اولتران در ۲۰۱۳، اطاعت در ۲۰۲۴ و بسیاری دیگر) ما را آموزش داده‌اند که هوش مصنوعی را چیزی شگفت‌انگیز و وحشتناک تصور کنیم. در همان بازه‌ی زمانی، تبلیغات‌چی‌های اسرائیلی تصویری مشابه از ارتش اسرائیل ارائه داده‌اند: ماشینی شکست‌ناپذیر و همه‌دان که مملو از هوش و فناوری است.
این قطارهای تبلیغاتی موازی – هوش مصنوعی و اسرائیل – اهداف یکسانی دارند: بزرگنمایی خودتصویر امپریالیست‌ها به عنوان خدا، و ایجاد ناامیدی در کسانی که در تلاش برای مقاومت در برابر نسل‌کشی هستند. در واقع، همانطور که شورشیان ضد استعماری در طول قرن‌ها فریاد زده‌اند، ستمگران ما چیزی ندارند که ما نداشته باشیم. این نسل‌کشی می‌تواند متوقف شود. اگر متوقف شود، توسط انسان‌هایی که مقاومت می‌کنند متوقف خواهد شد، نه با تعمیر یک رایانه.
درباره‌ی یاردن کاتز
یاردن کاتز در دانشگاه میشیگان، آن آربور، در دپارتمان فرهنگ آمریکایی و مؤسسه‌ی مطالعات دیجیتال تدریس می‌کند. او نویسنده‌ی کتاب «سفیدی مصنوعی: سیاست و ایدئولوژی در هوش مصنوعی» (۲۰۲۰) است.


درباره‌ی جاستین پودور
جاستین پودور نویسنده‌ای ساکن تورنتو و پژوهشگر نویسندگی در گلوبتروتر، پروژه‌ای از مؤسسه‌ی رسانه‌های مستقل است. می‌توانید او را در وب‌سایتش به آدرس podur.org و در توییتر با نام کاربری @justinpodur پیدا کنید. او در دانشکده‌ی مطالعات محیطی دانشگاه یورک تدریس می‌کند. او نویسنده‌ی رمان «محاصره‌شکنان» است.