
آیا درجنگ ایالات متحده آمریکا و اسرائیل با ایران ماشین هوش مصنوعی تصمیم میگیرد؟
نویسنده: «دکتر آلپ جنک ارسلان»، استادیار متخصص در مطالعات امنیتی و اطلاعاتی درآکادمی پلیس ترکیه.
برگردان: م.چابکی
مقاله دکترآلپ، مدرس آکادمی ملی پلیس ترکیه نقش تصمیم گیری در درگیریهای مسلحانه آخیر که دربررسی ازهوش مصنوعی تهیه شده دراختیار خوانندگان قرارگرفت.
***
حملات ایالات متحده و اسرائیل به ایران، نقش هوش مصنوعی در میدان نبرد را از یک موضوع بحث نظری به یک واقعیت استراتژیک تبدیل کرده است.
مفهوم «جنگ مبتنی بر هوش مصنوعی» که پیش از این بر قابلیتهای تسلیحاتی متمرکز بود، اکنون مستقیماً با سرعت و پویایی تصمیم گیری مرتبط است. این تحول در سطح زیرساخت شناختی جنگ، که شامل پردازش دادهها و تسریع زنجیره حمله است، آغاز شده است.
ارزیابی سالانه تهدید ایالات متحده برای سال ۲۰۲۶ که اخیراً منتشر شده است، به صراحت این روند را به رسمیت میشناسد. این سند، هوش مصنوعی را به عنوان یکی از فناوریهای کلیدی قرن بیست و یکم تعریف میکند و تأکید میکند که در دفاع، هوش مصنوعی فرآیندهای هدفگیری و تصمیمگیری را تسریع میکند. بنابراین، جبهه ایران نه تنها برای استفاده از هوش مصنوعی برای انتخاب هدف، بلکه برای توانایی تبدیل جریانهای عظیم داده به سرعت عمل بالا، به یک بستر آزمایشی حیاتی تبدیل شده است.
تیم انسان وماشین از تئوری تا عمل:
این تحول اساساً پیشبینی شده درسال هابود. کتاب «تیم انسان-ماشین» که در سال ۲۰۲۱ نام مستعار «سرتیپ Y.S.» منتشر شد، از ایده غلبه بر محدودیتهای انسانی در تولید هدف با ایجاد «همافزایی» بین انسانها و ماشینها حمایت میکرد. در سال ۲۰۲۴، نشریات +۹۷۲ و Local Call بعداً روزنامه بریتانیایی گاردین گزارش دادند که فرد پشت این نام مستعار، طبق اطلاعات آنها، یوسی ساریل، فرمانده واحد اطلاعات سایبری نخبه اسرائیل، واحد ۸۲۰۰، بوده است.
ایده اصلی کتاب این بود که مشکل در میدان نبرد کمبود داده نیست، بلکه توانایی محدود انسان در پردازش هجوم آن است. در سالهای بعد، اصطلاح «تیم انسان-ماشین» به طور گسترده در اسناد سیاست امنیتی ایالات متحده مورد استفاده قرار گرفت. آنچه امروز در غزه، و دربافت ایران در معماری نظامی گسترده تر ایالات متحده و اسرائیل مشاهده میکنیم، میتواند به عنوان تجسم عملی این مدل پردازش داده تلقی شود.
یکی از بارزترین نمونههای تبدیل شدن تحلیل دادههای مبتنی بر هوش مصنوعی به ابزاری برای جنگ، اوکراین بود. این کشورعملاً به «آزمایشگاهی» برای آزمایش پردازش اطلاعات و سیستمهای هدفگیری تبدیل شد. نرمافزار پالانتیر تصاویر ماهوارهای، فیدهای اطلاعاتی، دادههای منبع باز و اطلاعات میدانی را ترکیب کرد و به مقامات اوکراینی پشتیبانی تحلیلی و کمک به هدفگیری ارائه داد.
الکس کارپ، مدیرعامل پالانتیر، صراحتاً اظهار داشت که از راهحلهای نرمافزاری این شرکت در فرآیندهای هدفگیری در اوکراین استفاده شده است. غیرنظامیان همچنین توانستند عکسها، فیلمهای ویدئویی و دادههای مکانی مربوط به نیروهای روسی را از طریق برنامه «eVorog» منتقل کننده سیستمهای مورد استفاده اسرائیل، ابتدا در غزه و سپس در درگیریهای منطقهای گستردهتر، به بارزترین نمونههای طلوع یک دوره جدید تبدیل شدند. سیستم «The Gospel» به عنوان یک ابزار پشتیبانی تصمیم گیری در نظر گرفته میشد که قادر به جمع آوری حجم زیادی از دادهها و ارائه پیشنهادهایی برای انتخاب اهداف – ساختمانها، سازهها و زیرساختها – بود. منابع دفاعی اسرائیل تأکید کردند که این سیستم صرفاً یک نقطه شروع برای تحلیلگران فراهم کرده است. با این حال، چندین پژوهش ادعا میکند که استفاده از آن منجر به افزایش شدید مقیاس بمبارانها و گسترش قابل توجه فهرست اهداف شده است. سیستم «Lavender» به دلیل طبقهبندی مبتنی بر داده اهداف انسانی توجه را به خود جلب کرد و یک سؤال اساسی را مطرح کرد: آیا این دستگاه هنوز صرفاً یک ابزار بود یا تأیید انسانی به تدریج به یک رویه رسمی کاهش مییافت؟
منطق نظارتی که با عنوان «بابا کجاست؟» شناخته میشود، نشان داد که جنگ الگوریتمی به خصوصیترین حوزههای زندگی روزمره نفوذ کرده است.
این منطق به طور خاص برای ردیابی افراد و انجام حملات بمباران در حالی که آنها در خانه و در کنار خانوادههایشان بودند، طراحی شده بود. در جبهه ایران، این منطق فراتر از سیستمهای هدفگیری سنتی بود.اسرائیل زیرساختهای گسترده دوربینهای مداربسته را که ایران برای امنیت داخلی ساخته بود، مستقر کرد و فیدهای ویدیویی را به ابزاری برای هدفگیری تبدیل کرد. بنابراین، جنگ به سطحی رسید که دیگر نمیتوانست از سیستمهای نظارتی غیرنظامی استفاده شود.
در این مرحله بود که تنشهای جدیدی بین پنتاگون و سیلیکون ولی ایجاد شد. وزارت دفاع ایالات متحده از شرکت آنتروپیک خواست که برخی از محدودیتهای امنیتی را برای مدلهایی که برای استفاده در شبکههای طبقهبندیشده در نظر گرفته شدهاند، کاهش دهد. پس از امتناع شرکت، درگیری تشدید شد. داریو آمودی، مدیرعامل آنتروپیک، با پیت هگست، وزیر دفاع ایالات متحده، دیدار کرد. با این حال، اوضاع به جایی رسید که پنتاگون، آنتروپیک را به عنوان یک «خطر زنجیره تأمین» در نظر گرفت.
تقریباً بلافاصله پس از آن، OpenAI توافقنامه جداگانهای را برای استقرار مدلهای خود در شبکههای طبقهبندیشده پنتاگون امضا کرد. همزمان، xAI ایلان ماسک نیز تعدادی توافقنامه با ارتش ایالات متحده امضا کرد. با این حال، یک نکته مهم وجود دارد OpenAI که این توافقنامه اقدامات امنیتی اضافی را فراهم میکند و «خطوط قرمز» خاصی را تعیین میکند. بنابراین، این یک پیروزی ساده برای یک رویکرد نظامیتر نیست. بلکه، ما شاهد فرآیندی از مذاکرات هستیم که در آن سازمانهای دفاعی به دنبال ادغام عمیقترهوش مصنوعی هستند، در حالی که شرکتهای فناوری در تلاشند تا محدودیتهای قابل قبول کاربرد آن را تعریف کنند.
نتیجه، مشخص میشود که بحث دیگر در مورد حذف کامل انسانها از این فرآیند نیست.
ماهیت نقش آنها در حال تغییر است. در درگیریهای مدرن، انسانها در معرض خطر تبدیل شدن از تصمیم گیرندگان مستقیم به «اپراتورهایی» هستند که صرفاً یکی از گزینههای پیشنهادی یک ماشین را تأیید میکنند. لفاظی «انسانها در حلقه» ممکن است در اسناد رسمی ادامه یابد، اما تحت فشار سرعت تصمیم گیری، تراکم اطلاعات و اتوماسیون، انسانها عملاً به عواملی تبدیل میشوند که فرآیند الگوریتمی را مشروعیت میبخشند.خبر مربوط به آنتروپیک که هفته گذشته در وال استریت ژورنال منتشر شد، حتی افشاگرانهتر بود. طبق این اطلاعات، مدل کلود آنتروپیک در عملیات ایالات متحده برای دستگیری رئیس جمهور ونزوئلا، نیکولاس مادورو، به عنوان بخشی از همکاری با پالانتیر مورد استفاده قرار گرفت. این همکاری مبتنی بر تجزیه و تحلیل دادهها و تولید سناریو بود. پالانتیر با استفاده از کلود، بینشهای تحلیلی را در اختیار پنتاگون قرار داد. به عبارت دیگر، دادههای جمعآوریشده توسط یک مدل زبانی پردازش شدند که سناریوهای اطلاعاتی را تولید میکرد. این یک نقطه عطف مهم بود و نشانگر گذار هوش مصنوعی از یک ابزار تحلیلی به عنصری از زنجیره تصمیمگیری عملیاتی بود.
در نتیجه، سوال کلیدی این است.
«آیا میتوان از هوش مصنوعی در جنگ استفاده کرد؟» وبا سوال پیچیدهتری تغییر یافت: «کدام مدل هوش مصنوعی، در چه معماری دادهای و تحت چه چارچوب پاسخگویی عملیاتی استفاده میشود؟»»
آیا انسانها همچنان بخشی از حلقه تصمیمگیری باقی میمانند یا به « بوروکراتی» تبدیل میشوند که تصمیمات را امضا میکند؟
بنابراین، هوش مصنوعی جایگزین جنگ نمیشود، بلکه سرعت آن را فراتر از ریتم طبیعی تفکر انسان میبرد. در عین حال، نمونه ایران نشان داده است که سرعت بالای الگوریتم، پیروزی خودکار را تضمین نمیکند. تأسیسات زیرزمینی، پرتابگرهای سیار و قابلیتهای مداوم موشک و پهپاد، سرکوب کامل اهداف را، با وجود برتری تکنولوژیکی و دسترسی به دادهها، به طور قابل توجهی پیچیده کردهاند.
به عبارت دیگر، سوال کلیدی امروز: آیا انسان همچنان ارباب تصمیم گیری باقی میماند یا به حلقه نهایی تضمین کننده مشروعیت سرعت الگوریتمی تبدیل میشود؟
[دکتر آلپ جنک ارسلان، مدرس آکادمی پلیس ترکیه]
نظرات بیان شده در این مقاله متعلق به نویسنده است و لزوماً منعکس کننده سیاست تحریریه آناتولی نیست.
برگرفته ازخبرگزاری آناتولی؛
م.چابکی: 24فروردین 1405 برابر با 13آوریل 2026
توضیح:
دکتر «آلپ جنک ارسلان» استادیار متخصص در مطالعات امنیتی و اطلاعاتی در آکادمی پلیس ترکیه است. تحقیقات او بر سیاست فناوری، مطالعات اطلاعاتی و ارتباطی متمرکز است . بررسی وتحقیقات او چگونگی فناوریهای نوظهور براستراتژیهای امنیت ملی و پویایی گفتمان عمومی است. او نویسنده کتاب «تحلیل اطلاعات: بازتولید اطلاعات» که فرآیندها و روشهای پشت تولید و تحلیل اطلاعات را بررسی میکند. «نظریه سیاست فناوری» در چارچوبی جامع برای درک پیامدهای پیشرفتهای دیجیتال بر کشورداری، حکومتداری و امنیت ملی ارائه میدهد. او همچنین سخنران فعالی در کنفرانسهای بینالمللی است.
