آیا درجنگ ایالات متحده آمریکا و اسرائیل با ایران ماشین هوش مصنوعی تصمیم می‌گیرد؟ – آلپ جنک ارسلان – م.چابکی

در

,

 آیا درجنگ ایالات متحده آمریکا و اسرائیل با ایران ماشین هوش مصنوعی تصمیم می‌گیرد؟

نویسنده: «دکتر آلپ جنک ارسلان»، استادیار متخصص در مطالعات امنیتی و اطلاعاتی درآکادمی پلیس ترکیه.

برگردان: م.چابکی

مقاله دکترآلپ، مدرس آکادمی ملی پلیس ترکیه نقش تصمیم گیری در درگیری‌های مسلحانه آخیر که دربررسی ازهوش مصنوعی تهیه شده دراختیار خوانندگان قرارگرفت.

***

حملات ایالات متحده و اسرائیل به ایران، نقش هوش مصنوعی در میدان نبرد را از یک موضوع بحث نظری به یک واقعیت استراتژیک تبدیل کرده است.

 مفهوم «جنگ مبتنی بر هوش مصنوعی» که پیش از این بر قابلیت‌های تسلیحاتی متمرکز بود، اکنون مستقیماً با سرعت و پویایی تصمیم‌ گیری مرتبط است. این تحول در سطح زیرساخت شناختی جنگ، که شامل پردازش داده‌ها و تسریع زنجیره حمله است، آغاز شده است.

ارزیابی سالانه تهدید ایالات متحده برای سال ۲۰۲۶ که اخیراً منتشر شده است، به صراحت این روند را به رسمیت می‌شناسد. این سند، هوش مصنوعی را به عنوان یکی از فناوری‌های کلیدی قرن بیست و یکم تعریف می‌کند و تأکید می‌کند که در دفاع، هوش مصنوعی فرآیندهای هدف‌گیری و تصمیم‌گیری را تسریع می‌کند. بنابراین، جبهه ایران نه تنها برای استفاده از هوش مصنوعی برای انتخاب هدف، بلکه برای توانایی تبدیل جریان‌های عظیم داده به سرعت عمل بالا، به یک بستر آزمایشی حیاتی تبدیل شده است.

تیم انسان وماشین از تئوری تا عمل:

این تحول اساساً پیش‌بینی شده درسال هابود. کتاب «تیم انسان-ماشین» که در سال ۲۰۲۱ نام مستعار «سرتیپ Y.S.» منتشر شد، از ایده غلبه بر محدودیت‌های انسانی در تولید هدف با ایجاد «هم‌افزایی» بین انسان‌ها و ماشین‌ها حمایت می‌کرد. در سال ۲۰۲۴، نشریات +۹۷۲ و Local Call بعداً روزنامه بریتانیایی گاردین گزارش دادند که فرد پشت این نام مستعار، طبق اطلاعات آنها، یوسی ساریل، فرمانده واحد اطلاعات سایبری نخبه اسرائیل، واحد ۸۲۰۰، بوده است.

ایده اصلی کتاب این بود که مشکل در میدان نبرد کمبود داده نیست، بلکه توانایی محدود انسان در پردازش هجوم آن است. در سال‌های بعد، اصطلاح «تیم انسان-ماشین» به طور گسترده در اسناد سیاست امنیتی ایالات متحده مورد استفاده قرار گرفت. آنچه امروز در غزه، و دربافت ایران در معماری نظامی گسترده‌ تر ایالات متحده و اسرائیل مشاهده می‌کنیم، می‌تواند به عنوان تجسم عملی این مدل پردازش داده تلقی شود.

یکی از بارزترین نمونه‌های تبدیل شدن تحلیل داده‌های مبتنی بر هوش مصنوعی به ابزاری برای جنگ، اوکراین بود. این کشورعملاً به «آزمایشگاهی» برای آزمایش پردازش اطلاعات و سیستم‌های هدف‌گیری تبدیل شد. نرم‌افزار پالانتیر تصاویر ماهواره‌ای، فیدهای اطلاعاتی، داده‌های منبع باز و اطلاعات میدانی را ترکیب کرد و به مقامات اوکراینی پشتیبانی تحلیلی و کمک به هدف‌گیری ارائه داد.

الکس کارپ، مدیرعامل پالانتیر، صراحتاً اظهار داشت که از راه‌حل‌های نرم‌افزاری این شرکت در فرآیندهای هدف‌گیری در اوکراین استفاده شده است. غیرنظامیان همچنین توانستند عکس‌ها، فیلم‌های ویدئویی و داده‌های مکانی مربوط به نیروهای روسی را از طریق برنامه «eVorog» منتقل کننده سیستم‌های مورد استفاده اسرائیل، ابتدا در غزه و سپس در درگیری‌های منطقه‌ای گسترده‌تر، به بارزترین نمونه‌های طلوع یک دوره جدید تبدیل شدند. سیستم «The Gospel» به عنوان یک ابزار پشتیبانی تصمیم‌ گیری در نظر گرفته می‌شد که قادر به جمع‌ آوری حجم زیادی از داده‌ها و ارائه پیشنهادهایی برای انتخاب اهداف – ساختمان‌ها، سازه‌ها و زیرساخت‌ها – بود. منابع دفاعی اسرائیل تأکید کردند که این سیستم صرفاً یک نقطه شروع برای تحلیلگران فراهم کرده است. با این حال، چندین پژوهش ادعا می‌کند که استفاده از آن منجر به افزایش شدید مقیاس بمباران‌ها و گسترش قابل توجه فهرست اهداف شده است. سیستم «Lavender» به دلیل طبقه‌بندی مبتنی بر داده اهداف انسانی توجه را به خود جلب کرد و یک سؤال اساسی را مطرح کرد: آیا این دستگاه هنوز صرفاً یک ابزار بود یا تأیید انسانی به تدریج به یک رویه رسمی کاهش می‌یافت؟

منطق نظارتی که با عنوان «بابا کجاست؟» شناخته می‌شود، نشان داد که جنگ الگوریتمی به خصوصی‌ترین حوزه‌های زندگی روزمره نفوذ کرده است.

 این منطق به طور خاص برای ردیابی افراد و انجام حملات بمباران در حالی که آنها در خانه و در کنار خانواده‌هایشان بودند، طراحی شده بود. در جبهه ایران، این منطق فراتر از سیستم‌های هدف‌گیری سنتی بود.اسرائیل زیرساخت‌های گسترده دوربین‌های مداربسته را که ایران برای امنیت داخلی ساخته بود، مستقر کرد و فیدهای ویدیویی را به ابزاری برای هدف‌گیری تبدیل کرد. بنابراین، جنگ به سطحی رسید که دیگر نمی‌توانست از سیستم‌های نظارتی غیرنظامی استفاده شود.

در این مرحله بود که تنش‌های جدیدی بین پنتاگون و سیلیکون ولی ایجاد شد. وزارت دفاع ایالات متحده از شرکت آنتروپیک خواست که برخی از محدودیت‌های امنیتی را برای مدل‌هایی که برای استفاده در شبکه‌های طبقه‌بندی‌شده در نظر گرفته شده‌اند، کاهش دهد. پس از امتناع شرکت، درگیری تشدید شد. داریو آمودی، مدیرعامل آنتروپیک، با پیت هگست، وزیر دفاع ایالات متحده، دیدار کرد. با این حال، اوضاع به جایی رسید که پنتاگون، آنتروپیک را به عنوان یک «خطر زنجیره تأمین» در نظر گرفت.

 تقریباً بلافاصله پس از آن، OpenAI توافق‌نامه جداگانه‌ای را برای استقرار مدل‌های خود در شبکه‌های طبقه‌بندی‌شده پنتاگون امضا کرد. همزمان، xAI ایلان ماسک نیز تعدادی توافق‌نامه با ارتش ایالات متحده امضا کرد. با این حال، یک نکته مهم وجود دارد OpenAI که این توافق‌نامه اقدامات امنیتی اضافی را فراهم می‌کند و «خطوط قرمز» خاصی را تعیین می‌کند. بنابراین، این یک پیروزی ساده برای یک رویکرد نظامی‌تر نیست. بلکه، ما شاهد فرآیندی از مذاکرات هستیم که در آن سازمان‌های دفاعی به دنبال ادغام عمیق‌ترهوش مصنوعی هستند، در حالی که شرکت‌های فناوری در تلاشند تا محدودیت‌های قابل قبول کاربرد آن را تعریف کنند.

نتیجه، مشخص می‌شود که بحث دیگر در مورد حذف کامل انسان‌ها از این فرآیند نیست.

 ماهیت نقش آنها در حال تغییر است. در درگیری‌های مدرن، انسان‌ها در معرض خطر تبدیل شدن از تصمیم‌ گیرندگان مستقیم به «اپراتورهایی» هستند که صرفاً یکی از گزینه‌های پیشنهادی یک ماشین را تأیید می‌کنند. لفاظی «انسان‌ها در حلقه» ممکن است در اسناد رسمی ادامه یابد، اما تحت فشار سرعت تصمیم‌ گیری، تراکم اطلاعات و اتوماسیون، انسان‌ها عملاً به عواملی تبدیل می‌شوند که فرآیند الگوریتمی را مشروعیت می‌بخشند.خبر مربوط به آنتروپیک که هفته گذشته در وال استریت ژورنال منتشر شد، حتی افشاگرانه‌تر بود. طبق این اطلاعات، مدل کلود آنتروپیک در عملیات ایالات متحده برای دستگیری رئیس جمهور ونزوئلا، نیکولاس مادورو، به عنوان بخشی از همکاری با پالانتیر مورد استفاده قرار گرفت. این همکاری مبتنی بر تجزیه و تحلیل داده‌ها و تولید سناریو بود. پالانتیر با استفاده از کلود، بینش‌های تحلیلی را در اختیار پنتاگون قرار داد. به عبارت دیگر، داده‌های جمع‌آوری‌شده توسط یک مدل زبانی پردازش شدند که سناریوهای اطلاعاتی را تولید می‌کرد. این یک نقطه عطف مهم بود و نشانگر گذار هوش مصنوعی از یک ابزار تحلیلی به عنصری از زنجیره تصمیم‌گیری عملیاتی بود.

در نتیجه، سوال کلیدی این است.

 «آیا می‌توان از هوش مصنوعی در جنگ استفاده کرد؟»  وبا سوال پیچیده‌تری تغییر یافت: «کدام مدل هوش مصنوعی، در چه معماری داده‌ای و تحت چه چارچوب پاسخگویی عملیاتی استفاده می‌شود؟»»

آیا انسان‌ها همچنان بخشی از حلقه تصمیم‌گیری باقی می‌مانند یا به « بوروکراتی» تبدیل می‌شوند که تصمیمات را امضا می‌کند؟

بنابراین، هوش مصنوعی جایگزین جنگ نمی‌شود، بلکه سرعت آن را فراتر از ریتم طبیعی تفکر انسان می‌برد. در عین حال، نمونه ایران نشان داده است که سرعت بالای الگوریتم، پیروزی خودکار را تضمین نمی‌کند. تأسیسات زیرزمینی، پرتابگرهای سیار و قابلیت‌های مداوم موشک و پهپاد، سرکوب کامل اهداف را، با وجود برتری تکنولوژیکی و دسترسی به داده‌ها، به طور قابل توجهی پیچیده کرده‌اند.

به عبارت دیگر، سوال کلیدی امروز: آیا انسان همچنان ارباب تصمیم گیری باقی می‌ماند یا به حلقه نهایی تضمین کننده مشروعیت سرعت الگوریتمی تبدیل می‌شود؟

[دکتر آلپ جنک ارسلان، مدرس آکادمی پلیس ترکیه]

نظرات بیان شده در این مقاله متعلق به نویسنده است و لزوماً منعکس کننده سیاست تحریریه آناتولی نیست.

برگرفته ازخبرگزاری آناتولی؛

م.چابکی: 24فروردین 1405 برابر با 13آوریل 2026

توضیح:

دکتر «آلپ جنک ارسلان» استادیار متخصص در مطالعات امنیتی و اطلاعاتی در آکادمی پلیس ترکیه است. تحقیقات او بر سیاست فناوری، مطالعات اطلاعاتی و ارتباطی متمرکز است . بررسی وتحقیقات او چگونگی فناوری‌های نوظهور براستراتژی‌های امنیت ملی و پویایی گفتمان عمومی است. او نویسنده کتاب «تحلیل اطلاعات: بازتولید اطلاعات» که فرآیندها و روش‌های پشت تولید و تحلیل اطلاعات را بررسی می‌کند. «نظریه سیاست فناوری» در چارچوبی جامع برای درک پیامدهای پیشرفت‌های دیجیتال بر کشورداری، حکومتداری و امنیت ملی ارائه می‌دهد. او همچنین سخنران فعالی در کنفرانس‌های بین‌المللی است.