اکونومیست: چگونه جوامع اطلاعاتی بریتانیا و آمریکا از مدل‌های هوش مصنوعی استفاده می‌کنند؟

رسانه اقتصادی چینی
ترجمه مجله جنوب جهانی

درست در روزی که دونالد ترامپ سوگند ریاست‌جمهوری یاد کرد، یک شرکت چینی به نام «دیپ‌سیک» (DeepSeek) یک مدل زبانی بزرگ (LLM) در سطح جهانی را منتشر کرد. ترامپ بعداً این اقدام را زنگ خطری برای صنعت هوش مصنوعی آمریکا توصیف کرد. مارک وارنر، نایب‌رئیس کمیتهٔ اطلاعات سنای ایالات متحده، اظهار داشت که جامعهٔ اطلاعاتی آمریکا (متشکل از ۱۸ سازمان و نهاد) از این اتفاق «غافلگیر» شد.

در سال ۲۰۲۴، دولت بایدن نگران شد که سازمان‌های اطلاعاتی و ارتش چین ممکن است در کاربردهای هوش مصنوعی (AI) از ایالات متحده پیشی بگیرند. در نتیجه، دولت بایدن به سازمان‌های اطلاعاتی، پنتاگون و وزارت انرژی (مسئول توسعهٔ سلاح‌های هسته‌ای) دستور داد تا به شکل تهاجمی‌تری مدل‌های پیشرفتهٔ هوش مصنوعی را آزمایش کنند و همکاری با آزمایشگاه‌های هوش مصنوعی «پیشرو» را تقویت کنند، که تمرکز ویژه‌ای بر استارت‌آپ‌های هوش مصنوعی مانند «آنتروپیک» (Anthropic)، «گوگل دیپ‌مایند» (Google DeepMind) و «اوپن‌ای‌آی» (OpenAI) داشت.

در تاریخ ۲۴ تیرماه، پنتاگون قراردادهایی به ارزش حداکثر ۲۰۰ میلیون دلار به شرکت‌هایی مانند آنتروپیک، گوگل، اوپن‌ای‌آی و «ایکس‌ای‌آی» (xAI) متعلق به ایلان ماسک (که ربات گفتگوی این شرکت در آخرین به‌روزرسانی خود را هیتلر می‌دانست) اعطا کرد. این شرکت‌ها «مدل‌های عامل هوش مصنوعی» (agentic models) را آزمایش خواهند کرد. این نوع مدل‌ها قادرند وظایف را به جای کاربران انجام دهند، وظایف پیچیده را به چندین مرحله تقسیم کنند و سایر دستگاه‌ها مانند خودرو یا رایانه را کنترل کنند.

این آزمایشگاه‌های پیشرو نه‌تنها در حوزهٔ نظامی فعال هستند، بلکه عمیقاً در جوامع اطلاعاتی اروپا و آمریکا نیز نفوذ کرده‌اند. بیشتر کاربردهای اولیه بر استفاده از مدل‌های زبانی بزرگ برای تجزیه و تحلیل داده‌های طبقه‌بندی‌شده متمرکز شده‌اند. در دی‌ماه سال جاری، شرکت مایکروسافت اعلام کرد که ۲۶ محصول رایانش ابری آن برای استفاده توسط سازمان‌های اطلاعاتی ایالات متحده تأیید شده‌اند. در خردادماه، آنتروپیک از عرضهٔ «کلود گاو» (Claude Gov) خبر داد و اعلام کرد که این مدل «در سازمان‌های اطلاعاتی با بالاترین سطح طبقه‌بندی امنیتی ملی مستقر شده است.» در حال حاضر، تمام سازمان‌های اطلاعاتی ایالات متحده به طور گسترده از مدل‌های هوش مصنوعی استفاده می‌کنند، که بسیاری از آن‌ها محصولات رقیب از آزمایشگاه‌های مختلف هستند.

شرکت‌های هوش مصنوعی معمولاً مدل‌ها را بر اساس نیازهای سازمان‌های اطلاعاتی «تنظیم دقیق» می‌کنند. به عنوان مثال، به دلایل امنیتی، مدل «کلود» (Claude) که آنتروپیک برای عموم عرضه می‌کند، ممکن است از پردازش اسنادی که دارای برچسب «محرمانه» هستند، خودداری کند؛ در حالی که نسخهٔ «کلود گاو» طوری تنظیم شده است که اجازهٔ پردازش چنین موادی را داشته باشد. علاوه بر این، «کلود گاو» توانایی تشخیص و درک زبان‌ها و لهجه‌های خارجی را که ممکن است برای کاربران دولتی مورد نیاز باشد، افزایش داده است. بیشتر این مدل‌ها بر روی سرورهای امنی که از اینترنت جدا شده‌اند، اجرا می‌شوند. امروزه، دسته‌ای جدید از مدل‌های عامل هوشمند در داخل سازمان‌های اطلاعاتی در حال ساخت هستند.

اروپا نیز همزمان در حال پیشبرد این روند است. یک منبع آگاه بریتانیایی اظهار داشت: «در زمینهٔ هوش مصنوعی مولد، ما همواره تلاش کرده‌ایم تا به سرعت به مدل‌های پیشرو برسیم.» وی افزود: «کل جامعهٔ اطلاعاتی بریتانیا (UKIC) به قابلیت‌های مدل زبانی بزرگ با بالاترین سطح طبقه‌بندی امنیتی دسترسی پیدا کرده است.» شرکت فرانسوی «میسترال» (Mistral)، تنها شرکت پیشرو اروپا در زمینهٔ هوش مصنوعی، با ادارهٔ هوش مصنوعی دفاعی فرانسه (AMIAD) همکاری می‌کند. مدل «صبا» (Saba) شرکت میسترال به طور خاص برای پردازش داده‌های خاورمیانه و آسیای جنوبی آموزش داده شده است، بنابراین در زبان‌های منطقه‌ای مانند عربی و تامیل عملکرد بسیار خوبی دارد. در دی‌ماه سال جاری، مجلهٔ چپ‌گرای اسرائیلی «مجلهٔ ۹۷۲» گزارش داد که از زمان آغاز درگیری غزه، ارتش اسرائیل استفاده از پیشرفته‌ترین مدل «جی‌پی‌تی-۴» (GPT-4) شرکت اوپن‌ای‌آی را ۲۰ برابر افزایش داده است.

با وجود پیشرفت‌های همه‌جانبه، این پیشرفت‌ها آن‌طور که انتظار می‌رفت سریع نبوده‌اند. کاترینا مولیگان (Katrina Mulligan)، مسئول همکاری در این زمینه در اوپن‌ای‌آی که پیش از این در بخش‌های دفاعی و اطلاعاتی ایالات متحده خدمت می‌کرد، اذعان داشت: «کاربرد هوش مصنوعی در حوزهٔ امنیت ملی هنوز به سطحی که انتظار داشتیم نرسیده است.» به گفتهٔ یک منبع داخلی، آژانس امنیت ملی ایالات متحده (NSA)، که مسئول پردازش اطلاعات سیگنالی است، دهه‌هاست که در کاربرد فناوری‌های اولیهٔ هوش مصنوعی مانند تشخیص صدا فعالیت می‌کند و به عنوان یک الگو در این صنعت شناخته می‌شود. با این حال، بسیاری از سازمان‌های اطلاعاتی هنوز در تلاشند تا «پوشش‌هایی» (wrappers) برای ربات‌های گفتگوی آماده بسازند، که این امر اغلب باعث می‌شود که آن‌ها از پیشرفته‌ترین مدل‌های موجود در حوزهٔ عمومی عقب بمانند.

تارون چابرا (Tarun Chhabra)، که پیش از این در شورای امنیت ملی دولت بایدن مسئول سیاست فناوری بود و اکنون مسئول سیاست امنیت ملی در آنتروپیک است، خاطرنشان کرد: «تغییر واقعی فقط استفاده از هوش مصنوعی به عنوان یک ابزار گفتگو نیست. تغییر واقعی در این است که – هنگامی که شروع به استفاده از آن می‌کنیم، چگونه باید روش‌های انجام ماموریت اصلی خود را بازسازی کنیم؟»

بازی اطلاعاتی هوش مصنوعی آغاز شده است

اما منتقدانی نیز وجود دارند که معتقدند این امیدها بیش از حد اغراق‌آمیز هستند. ریچارد کارتر (Richard Carter) از مؤسسهٔ آلن تورینگ بریتانیا خاطرنشان می‌کند که آنچه سازمان‌های اطلاعاتی آمریکا و بریتانیا واقعاً می‌خواهند این است که آزمایشگاه‌ها بتوانند میزان «توهم» (hallucination) در مدل‌های زبانی بزرگ موجود را به میزان قابل توجهی کاهش دهند. سازمان‌های اطلاعاتی بریتانیا از روشی به نام «تولید تقویت‌شده با بازیابی» (retrieval-augmented generation، RAG) استفاده می‌کنند که ابتدا یک الگوریتم اطلاعات قابل اعتماد را فیلتر می‌کند و سپس آن را در اختیار مدل زبانی بزرگ قرار می‌دهد تا میزان توهم را کاهش دهد. یک منبع بریتانیایی فاش کرد: «آنچه جامعهٔ اطلاعاتی بیشتر از همه به آن نیاز دارد، ثبات، قابلیت اطمینان، شفافیت و قابلیت تفسیر است.» دکتر کارتر هشدار می‌دهد که در مقایسه، در حال حاضر آزمایشگاه‌های بزرگ بیشتر بر توسعهٔ مدل‌های عامل هوشمند پیشرفته‌تر تمرکز دارند.

به عنوان مثال، گفته می‌شود که شرکت میسترال سناریویی را به مشتریان بالقوه نشان داده است که در آن هر منبع اطلاعاتی (مانند تصاویر ماهواره‌ای یا قطعات رهگیری‌شدهٔ صوتی) به یک عامل هوش مصنوعی سپرده می‌شود تا سرعت تصمیم‌گیری افزایش یابد. به عنوان مثال دیگر، می‌توان تصور کرد که یک عامل هوش مصنوعی مأمور شناسایی، تحقیق و تماس با صدها دانشمند هسته‌ای ایرانی شود و تلاش کند تا آن‌ها را متقاعد به فرار کند. چابرا افزود: «ما هنوز به درستی درک نکرده‌ایم که چگونه می‌توان از مدل‌های عامل هوش مصنوعی در شرایط جنگی استفاده کرد.»

دکتر کارتر هشدار می‌دهد که خطر مدل‌های عامل در این است که آن‌ها به طور بازگشتی برای هر وظیفه‌ای که به آن‌ها محول می‌شود، به طور خودکار دستورالعمل تولید می‌کنند، که این امر پیش‌بینی آن‌ها را دشوارتر می‌کند و اشتباهات ممکن است به صورت تصاعدی افزایش یابند. بر اساس ارزیابی منتشر شده توسط اوپن‌ای‌آی، میزان توهم در جدیدترین مدل عامل این شرکت، یعنی «چت‌جی‌پی‌تی ایجنت» (ChatGPT agent)، حدود ۸٪ است، که حتی بالاتر از مدل «او۳» (o3) است که پیش از این منتشر شده بود.

برخی از آزمایشگاه‌های هوش مصنوعی بر این باورند که این نگرانی‌ها چیزی جز محافظه‌کاری بوروکراتیک نیستند، اما دکتر کارتر می‌گوید که این در واقع «یک احتیاط سالم» است. وی گفت: «به ویژه در ستاد ارتباطات دولت بریتانیا (GCHQ، معادل بریتانیایی آژانس امنیت ملی ایالات متحده)، گروهی از مهندسان فوق‌العاده را خواهید یافت که به طور غریزی نسبت به فناوری‌های جدید بدبین هستند.»

این امر به یک سوال گسترده‌تر منجر می‌شود – مسیر آیندهٔ هوش مصنوعی به کدام سو است؟ دکتر کارتر متعلق به آن دسته از صداهای منتقد است که معتقدند معماری مدل زبانی بزرگ عمومی امروزی برای «استدلال علّی» مناسب نیست، بنابراین درک منطق عملکرد دنیای واقعی دشوار است. او استدلال می‌کند که سازمان‌های اطلاعاتی باید تمرکز خود را به سمت توسعهٔ معماری‌های هوش مصنوعی جدید با قابلیت استدلال تغییر دهند.

در همین حال، برخی هشدار می‌دهند که چین ممکن است در این زمینه پیشرو باشد. فیلیپ راینر (Philip Reiner) از مؤسسهٔ امنیت و فناوری در سیلیکون ولی خاطرنشان می‌کند: «ما هنوز به طور کامل نمی‌دانیم که چین چگونه و تا چه حد از دیپ‌سیک در زمینه‌های نظامی و اطلاعاتی استفاده می‌کند.» وی افزود: «مدل‌های آن‌ها ممکن است حفاظ‌هایی مانند مدل‌های ما نداشته باشند، بنابراین ممکن است سریع‌تر به بینش‌های قدرتمندی دست یابند.»

دولت ترامپ در تاریخ ۱ مرداد به پنتاگون و سازمان‌های اطلاعاتی دستور داد تا به طور منظم سرعت استفاده از هوش مصنوعی در سیستم امنیت ملی ایالات متحده را ارزیابی کنند تا مشخص شود که آیا این سرعت با سرعت رقبا مانند چین همگام است یا خیر و همچنین «مکانیسم‌هایی برای انطباق مستمر» ایجاد کنند.

در این مورد، تقریباً همه به یک توافق رسیده‌اند. سناتور وارنر صریحاً گفت که جامعهٔ اطلاعاتی ایالات متحده در نظارت بر پیشرفت‌های مربوط به چین «افتضاح» عمل کرده است. «پیشرفت ما در به دست آوردن فناوری چین و نفوذ به شرکت‌های فناوری چینی هنوز نسبتاً محدود است.» مولیگان خاطرنشان کرد که بزرگ‌ترین مشکل این نیست که ایالات متحده بدون درک خطرات، فناوری هوش مصنوعی را به سرعت پیش می‌برد، بلکه «این است که وزارت دفاع و جامعهٔ اطلاعاتی به انجام کارها به روش‌های قدیمی ادامه می‌دهند.»

«چیزی که خواب را از چشمان من می‌گیرد این است که – ما ممکن است واقعاً در مسابقهٔ هوش مصنوعی عمومی (AGI) پیروز شویم… اما در مسابقهٔ کاربردهای عملی شکست بخوریم.»