اکونومیست: چگونه جوامع اطلاعاتی بریتانیا و آمریکا از مدلهای هوش مصنوعی استفاده میکنند؟
رسانه اقتصادی چینی
ترجمه مجله جنوب جهانی
درست در روزی که دونالد ترامپ سوگند ریاستجمهوری یاد کرد، یک شرکت چینی به نام «دیپسیک» (DeepSeek) یک مدل زبانی بزرگ (LLM) در سطح جهانی را منتشر کرد. ترامپ بعداً این اقدام را زنگ خطری برای صنعت هوش مصنوعی آمریکا توصیف کرد. مارک وارنر، نایبرئیس کمیتهٔ اطلاعات سنای ایالات متحده، اظهار داشت که جامعهٔ اطلاعاتی آمریکا (متشکل از ۱۸ سازمان و نهاد) از این اتفاق «غافلگیر» شد.
در سال ۲۰۲۴، دولت بایدن نگران شد که سازمانهای اطلاعاتی و ارتش چین ممکن است در کاربردهای هوش مصنوعی (AI) از ایالات متحده پیشی بگیرند. در نتیجه، دولت بایدن به سازمانهای اطلاعاتی، پنتاگون و وزارت انرژی (مسئول توسعهٔ سلاحهای هستهای) دستور داد تا به شکل تهاجمیتری مدلهای پیشرفتهٔ هوش مصنوعی را آزمایش کنند و همکاری با آزمایشگاههای هوش مصنوعی «پیشرو» را تقویت کنند، که تمرکز ویژهای بر استارتآپهای هوش مصنوعی مانند «آنتروپیک» (Anthropic)، «گوگل دیپمایند» (Google DeepMind) و «اوپنایآی» (OpenAI) داشت.
در تاریخ ۲۴ تیرماه، پنتاگون قراردادهایی به ارزش حداکثر ۲۰۰ میلیون دلار به شرکتهایی مانند آنتروپیک، گوگل، اوپنایآی و «ایکسایآی» (xAI) متعلق به ایلان ماسک (که ربات گفتگوی این شرکت در آخرین بهروزرسانی خود را هیتلر میدانست) اعطا کرد. این شرکتها «مدلهای عامل هوش مصنوعی» (agentic models) را آزمایش خواهند کرد. این نوع مدلها قادرند وظایف را به جای کاربران انجام دهند، وظایف پیچیده را به چندین مرحله تقسیم کنند و سایر دستگاهها مانند خودرو یا رایانه را کنترل کنند.
این آزمایشگاههای پیشرو نهتنها در حوزهٔ نظامی فعال هستند، بلکه عمیقاً در جوامع اطلاعاتی اروپا و آمریکا نیز نفوذ کردهاند. بیشتر کاربردهای اولیه بر استفاده از مدلهای زبانی بزرگ برای تجزیه و تحلیل دادههای طبقهبندیشده متمرکز شدهاند. در دیماه سال جاری، شرکت مایکروسافت اعلام کرد که ۲۶ محصول رایانش ابری آن برای استفاده توسط سازمانهای اطلاعاتی ایالات متحده تأیید شدهاند. در خردادماه، آنتروپیک از عرضهٔ «کلود گاو» (Claude Gov) خبر داد و اعلام کرد که این مدل «در سازمانهای اطلاعاتی با بالاترین سطح طبقهبندی امنیتی ملی مستقر شده است.» در حال حاضر، تمام سازمانهای اطلاعاتی ایالات متحده به طور گسترده از مدلهای هوش مصنوعی استفاده میکنند، که بسیاری از آنها محصولات رقیب از آزمایشگاههای مختلف هستند.
شرکتهای هوش مصنوعی معمولاً مدلها را بر اساس نیازهای سازمانهای اطلاعاتی «تنظیم دقیق» میکنند. به عنوان مثال، به دلایل امنیتی، مدل «کلود» (Claude) که آنتروپیک برای عموم عرضه میکند، ممکن است از پردازش اسنادی که دارای برچسب «محرمانه» هستند، خودداری کند؛ در حالی که نسخهٔ «کلود گاو» طوری تنظیم شده است که اجازهٔ پردازش چنین موادی را داشته باشد. علاوه بر این، «کلود گاو» توانایی تشخیص و درک زبانها و لهجههای خارجی را که ممکن است برای کاربران دولتی مورد نیاز باشد، افزایش داده است. بیشتر این مدلها بر روی سرورهای امنی که از اینترنت جدا شدهاند، اجرا میشوند. امروزه، دستهای جدید از مدلهای عامل هوشمند در داخل سازمانهای اطلاعاتی در حال ساخت هستند.
اروپا نیز همزمان در حال پیشبرد این روند است. یک منبع آگاه بریتانیایی اظهار داشت: «در زمینهٔ هوش مصنوعی مولد، ما همواره تلاش کردهایم تا به سرعت به مدلهای پیشرو برسیم.» وی افزود: «کل جامعهٔ اطلاعاتی بریتانیا (UKIC) به قابلیتهای مدل زبانی بزرگ با بالاترین سطح طبقهبندی امنیتی دسترسی پیدا کرده است.» شرکت فرانسوی «میسترال» (Mistral)، تنها شرکت پیشرو اروپا در زمینهٔ هوش مصنوعی، با ادارهٔ هوش مصنوعی دفاعی فرانسه (AMIAD) همکاری میکند. مدل «صبا» (Saba) شرکت میسترال به طور خاص برای پردازش دادههای خاورمیانه و آسیای جنوبی آموزش داده شده است، بنابراین در زبانهای منطقهای مانند عربی و تامیل عملکرد بسیار خوبی دارد. در دیماه سال جاری، مجلهٔ چپگرای اسرائیلی «مجلهٔ ۹۷۲» گزارش داد که از زمان آغاز درگیری غزه، ارتش اسرائیل استفاده از پیشرفتهترین مدل «جیپیتی-۴» (GPT-4) شرکت اوپنایآی را ۲۰ برابر افزایش داده است.
با وجود پیشرفتهای همهجانبه، این پیشرفتها آنطور که انتظار میرفت سریع نبودهاند. کاترینا مولیگان (Katrina Mulligan)، مسئول همکاری در این زمینه در اوپنایآی که پیش از این در بخشهای دفاعی و اطلاعاتی ایالات متحده خدمت میکرد، اذعان داشت: «کاربرد هوش مصنوعی در حوزهٔ امنیت ملی هنوز به سطحی که انتظار داشتیم نرسیده است.» به گفتهٔ یک منبع داخلی، آژانس امنیت ملی ایالات متحده (NSA)، که مسئول پردازش اطلاعات سیگنالی است، دهههاست که در کاربرد فناوریهای اولیهٔ هوش مصنوعی مانند تشخیص صدا فعالیت میکند و به عنوان یک الگو در این صنعت شناخته میشود. با این حال، بسیاری از سازمانهای اطلاعاتی هنوز در تلاشند تا «پوششهایی» (wrappers) برای رباتهای گفتگوی آماده بسازند، که این امر اغلب باعث میشود که آنها از پیشرفتهترین مدلهای موجود در حوزهٔ عمومی عقب بمانند.
تارون چابرا (Tarun Chhabra)، که پیش از این در شورای امنیت ملی دولت بایدن مسئول سیاست فناوری بود و اکنون مسئول سیاست امنیت ملی در آنتروپیک است، خاطرنشان کرد: «تغییر واقعی فقط استفاده از هوش مصنوعی به عنوان یک ابزار گفتگو نیست. تغییر واقعی در این است که – هنگامی که شروع به استفاده از آن میکنیم، چگونه باید روشهای انجام ماموریت اصلی خود را بازسازی کنیم؟»
بازی اطلاعاتی هوش مصنوعی آغاز شده است
اما منتقدانی نیز وجود دارند که معتقدند این امیدها بیش از حد اغراقآمیز هستند. ریچارد کارتر (Richard Carter) از مؤسسهٔ آلن تورینگ بریتانیا خاطرنشان میکند که آنچه سازمانهای اطلاعاتی آمریکا و بریتانیا واقعاً میخواهند این است که آزمایشگاهها بتوانند میزان «توهم» (hallucination) در مدلهای زبانی بزرگ موجود را به میزان قابل توجهی کاهش دهند. سازمانهای اطلاعاتی بریتانیا از روشی به نام «تولید تقویتشده با بازیابی» (retrieval-augmented generation، RAG) استفاده میکنند که ابتدا یک الگوریتم اطلاعات قابل اعتماد را فیلتر میکند و سپس آن را در اختیار مدل زبانی بزرگ قرار میدهد تا میزان توهم را کاهش دهد. یک منبع بریتانیایی فاش کرد: «آنچه جامعهٔ اطلاعاتی بیشتر از همه به آن نیاز دارد، ثبات، قابلیت اطمینان، شفافیت و قابلیت تفسیر است.» دکتر کارتر هشدار میدهد که در مقایسه، در حال حاضر آزمایشگاههای بزرگ بیشتر بر توسعهٔ مدلهای عامل هوشمند پیشرفتهتر تمرکز دارند.
به عنوان مثال، گفته میشود که شرکت میسترال سناریویی را به مشتریان بالقوه نشان داده است که در آن هر منبع اطلاعاتی (مانند تصاویر ماهوارهای یا قطعات رهگیریشدهٔ صوتی) به یک عامل هوش مصنوعی سپرده میشود تا سرعت تصمیمگیری افزایش یابد. به عنوان مثال دیگر، میتوان تصور کرد که یک عامل هوش مصنوعی مأمور شناسایی، تحقیق و تماس با صدها دانشمند هستهای ایرانی شود و تلاش کند تا آنها را متقاعد به فرار کند. چابرا افزود: «ما هنوز به درستی درک نکردهایم که چگونه میتوان از مدلهای عامل هوش مصنوعی در شرایط جنگی استفاده کرد.»
دکتر کارتر هشدار میدهد که خطر مدلهای عامل در این است که آنها به طور بازگشتی برای هر وظیفهای که به آنها محول میشود، به طور خودکار دستورالعمل تولید میکنند، که این امر پیشبینی آنها را دشوارتر میکند و اشتباهات ممکن است به صورت تصاعدی افزایش یابند. بر اساس ارزیابی منتشر شده توسط اوپنایآی، میزان توهم در جدیدترین مدل عامل این شرکت، یعنی «چتجیپیتی ایجنت» (ChatGPT agent)، حدود ۸٪ است، که حتی بالاتر از مدل «او۳» (o3) است که پیش از این منتشر شده بود.
برخی از آزمایشگاههای هوش مصنوعی بر این باورند که این نگرانیها چیزی جز محافظهکاری بوروکراتیک نیستند، اما دکتر کارتر میگوید که این در واقع «یک احتیاط سالم» است. وی گفت: «به ویژه در ستاد ارتباطات دولت بریتانیا (GCHQ، معادل بریتانیایی آژانس امنیت ملی ایالات متحده)، گروهی از مهندسان فوقالعاده را خواهید یافت که به طور غریزی نسبت به فناوریهای جدید بدبین هستند.»
این امر به یک سوال گستردهتر منجر میشود – مسیر آیندهٔ هوش مصنوعی به کدام سو است؟ دکتر کارتر متعلق به آن دسته از صداهای منتقد است که معتقدند معماری مدل زبانی بزرگ عمومی امروزی برای «استدلال علّی» مناسب نیست، بنابراین درک منطق عملکرد دنیای واقعی دشوار است. او استدلال میکند که سازمانهای اطلاعاتی باید تمرکز خود را به سمت توسعهٔ معماریهای هوش مصنوعی جدید با قابلیت استدلال تغییر دهند.
در همین حال، برخی هشدار میدهند که چین ممکن است در این زمینه پیشرو باشد. فیلیپ راینر (Philip Reiner) از مؤسسهٔ امنیت و فناوری در سیلیکون ولی خاطرنشان میکند: «ما هنوز به طور کامل نمیدانیم که چین چگونه و تا چه حد از دیپسیک در زمینههای نظامی و اطلاعاتی استفاده میکند.» وی افزود: «مدلهای آنها ممکن است حفاظهایی مانند مدلهای ما نداشته باشند، بنابراین ممکن است سریعتر به بینشهای قدرتمندی دست یابند.»
دولت ترامپ در تاریخ ۱ مرداد به پنتاگون و سازمانهای اطلاعاتی دستور داد تا به طور منظم سرعت استفاده از هوش مصنوعی در سیستم امنیت ملی ایالات متحده را ارزیابی کنند تا مشخص شود که آیا این سرعت با سرعت رقبا مانند چین همگام است یا خیر و همچنین «مکانیسمهایی برای انطباق مستمر» ایجاد کنند.
در این مورد، تقریباً همه به یک توافق رسیدهاند. سناتور وارنر صریحاً گفت که جامعهٔ اطلاعاتی ایالات متحده در نظارت بر پیشرفتهای مربوط به چین «افتضاح» عمل کرده است. «پیشرفت ما در به دست آوردن فناوری چین و نفوذ به شرکتهای فناوری چینی هنوز نسبتاً محدود است.» مولیگان خاطرنشان کرد که بزرگترین مشکل این نیست که ایالات متحده بدون درک خطرات، فناوری هوش مصنوعی را به سرعت پیش میبرد، بلکه «این است که وزارت دفاع و جامعهٔ اطلاعاتی به انجام کارها به روشهای قدیمی ادامه میدهند.»
«چیزی که خواب را از چشمان من میگیرد این است که – ما ممکن است واقعاً در مسابقهٔ هوش مصنوعی عمومی (AGI) پیروز شویم… اما در مسابقهٔ کاربردهای عملی شکست بخوریم.»

