رابطه هوش مصنوعی و پنتاگون: جهان در وضعیتی به شدت مخاطره‌آمیز قرار دارد.

مجله جنوب جهانی

در دنیای وحشی غربی و در وضعیت پرتنش روابط بین‌الملل و جنگ‌های مدرن، مرزهای اخلاقی و فناوری در غرب با سرعتی حیرت‌انگیز در حال جابه‌جایی هستند. آنچه تا دیروز در فیلم‌های علمی-تخیلی به تصویر کشیده می‌شد، امروز به بخشی از واقعیت تلخ ژئوپلیتیک تبدیل شده است. تازه‌ترین نمونه این ادغام هولناک میان هوش مصنوعی و عملیات نظامی، گزارش‌هایی است که از نقش مستقیم یک مدل زبانی پیشرفته در یک عملیات برون‌مرزی ارتش ایالات متحده حکایت دارد. بر اساس این گزارش‌ها که از سوی رسانه‌های معتبری منتشر شده، پنتاگون در جریان عملیات ماه گذشته خود برای به دام انداختن نیکلاس مادورو، رئیس‌جمهور ونزوئلا، از مدل هوش مصنوعی کلود claude به طور فعال استفاده کرده است. این ادعا که استفاده از این فناوری صرفاً به مراحل برنامه‌ریزی و مقدماتی محدود نبوده، بلکه در لحظه و در میدان عمل نیز به کار گرفته شده، ابعاد تازه و نگران‌کننده‌ای را به بحث درباره کاربردهای نظامی هوش مصنوعی می‌افزاید.

شرکت «انسان‌محور» کلود، یعنی آزمایشگاه هوش مصنوعی آنتروپیک که دفتر اصلی آن در سانفرانسیسکو قرار دارد، همواره در بیانیه‌های عمومی خود بر پایبندی به اصول ایمنی و اخلاقی تأکید کرده است. سیاست‌های استفاده از این شرکت به صراحت هرگونه به کارگیری فناوری‌هایش را برای تسهیل خشونت، توسعه سلاح یا انجام عملیات نظارتی گسترده منع می‌کند. با این حال، گزارش‌ها حاکی از آن است که در جریان یورش روز سوم ژانویه، ده‌ها تن از نظامیان ونزوئلایی و کوبایی جان خود را از دست دادند. اگرچه مقامات آمریکایی بر عدم تلفات نیروهای خودی تأکید دارند، اما این پرسش اساسی مطرح می‌شود که آیا الگوریتم‌های هوش مصنوعی کلود به نوعی در طراحی، هدایت یا اجرای این عملیات مرگبار نقش داشته‌اند؟ پاسخ مقامات آنتروپیک به این پرسش‌ها بسیار محتاطانه و در عین حال قابل تأمل است. آنها اعلام کرده‌اند که نمی‌توانند در مورد استفاده از کلود یا هر مدل هوش مصنوعی دیگری در عملیات طبقه‌بندی شده اظهارنظر کنند، اما در عین حال بر الزام تمامی استفاده‌کنندگان دولتی یا خصوصی به رعایت سیاست‌های این شرکت تأکید می‌کنند. این پاسخ دیپلماتیک، پرده از یک تناقض بزرگ برمی‌دارد؛ تناقض میان شعارهای ایمنی و قراردادهای نظامی پرسود.

رقبای اصلی آنتروپیک در عرصه هوش مصنوعی، نظیر اوپن‌آی، گوگل و شرکت ای‌لان ماسک، همگی توافقنامه‌هایی با پنتاگون منعقد کرده‌اند که بر اساس آن، دسترسی ارتش به مدل‌هایشان با محدودیت‌های بسیار کمتری نسبت به کاربران عادی همراه است. اما آنچه موقعیت کلود را در این میان متمایز می‌کند، همکاری ویژه آن با شرکت پالانتیر تکنولوژی‌ز است. پالانتیر که به دلیل فعالیت‌هایش در حوزه تحلیل داده برای سازمان‌های اطلاعاتی و نظامی شهرت دارد، زیرساخت‌های طبقه‌بندی شده‌ای را برای حساس‌ترین عملیات‌های ارتش آمریکا فراهم می‌کند. استقرار کلود روی این پلتفرم‌های امن، به معنای نفوذ مستقیم این مدل زبانی به قلب تصمیم‌گیری‌های نظامی و اطلاعاتی ایالات متحده است. این واقعیت، زنگ خطر را برای فعالان عرصه ایمنی هوش مصنوعی به صدا درآورده است، زیرا نشان می‌دهد که یک فناوری با کاربردهای دوگانه، تا چه اندازه می‌تواند به ابزاری برای اعمال قدرت و خشونت تبدیل شود.

افشای این نقش در زمانی رخ می‌دهد که شرکت آنتروپیک سخت در تلاش است تا تصویری مسئولیت‌پذیر و ایمن از خود در افکار عمومی و میان سیاست‌گذاران به نمایش بگذارد. مدیرعامل این شرکت، داریو آمودی، بارها در مورد خطرات وجودی ناشی از استفاده بی‌مهار و بدون محدودیت از هوش مصنوعی هشدار داده است. او در مقاله‌ای مفصل نسبت به قدرت تقریباً غیرقابل تصوری که این فناوری در آینده‌ای نزدیک در اختیار انسان‌ها قرار خواهد داد، ابراز نگرانی کرده بود. این نگرانی‌ها شامل سناریوهایی نظیر سرکشی و طغیان خود سیستم‌های هوش مصنوعی علیه بشریت، و نیز استفاده از آنها برای ایجاد دیکتاتوری‌های تمامیت‌خواه جهانی از طریق ابزارهای نظارتی پیشرفته و سلاح‌های خودمختار است. اما آنچه در عمل رخ می‌نماید، شکاف عمیقی میان این هشدارها و عملکرد تجاری-نظامی شرکت را آشکار می‌سازد. نمونه بارز این شکاف، استعفای ناگهانی و پررمز و راز سرپرست تیم تحقیقات ایمنی آنتروپیک است.

مرینانک شارما، پژوهشگر برجسته‌ای که هدایت تیم ضمانت‌های ایمنی کلود را بر عهده داشت، با انتشار نامه استعفای خود در شبکه‌های اجتماعی، جهان فناوری را شوکه کرد. او در این نامه، که خطاب به همکارانش نوشته شده بود، از یک بیداری شخصی در مورد «وضعیت ما» سخن گفت و جهان را در وضعیتی به شدت مخاطره‌آمیز توصیف کرد. شارما هشدار داد که این خطرات صرفاً به هوش مصنوعی یا سلاح‌های بیولوژیکی محدود نمی‌شود، بلکه مجموعه‌ای از بحران‌های به هم پیوسته در همین لحظه در حال گریبانگیر کردن جهان هستند. او در بخشی از نامه خود، به تلخی از دشواری پایبندی به ارزش‌های بنیادین در عمل سخن گفت و اعتراف کرد که بارها شاهد بوده چگونه فشارهای درون سازمانی و اجتماعی باعث می‌شود تا آنچه واقعاً اهمیت دارد، به حاشیه رانده شود. این اعتراف صریح از سوی فردی که مسئولیت اصلی پیشگیری از فجایع ناشی از سوءاستفاده از هوش مصنوعی را بر عهده داشته، نشان‌دهنده نوعی بن‌بست اخلاقی در درون این شرکت پیشرو است.

استعفای شارما تنها چند روز پس از انتشار نسخه قدرتمندتر ابزار کلود توسط آنتروپیک رخ داد؛ نسخه‌ای که با وجود قدرت بیشتر، نگرانی‌های عمیق‌تری را در مورد سوءاستفاده‌های احتمالی از آن برانگیخت. تیمی که شارما رهبری آن را بر عهده داشت، اندکی بیش از یک سال پیش با هدف مشخص رسیدگی به تهدیدات امنیتی جدی ناشی از هوش مصنوعی تأسیس شده بود. مأموریت این تیم شامل موضوعاتی حیاتی مانند جلوگیری از استفاده نادرست از مدل‌های زبانی، مهار خطرات ناشی از هم‌راستایی نادرست سیستم‌های هوشمند با اهداف انسانی، و همچنین پیشگیری از فجایع بزرگی همچون طراحی و ساخت سلاح‌های بیولوژیکی با کمک این فناوری بود. شارما خود با افتخار به کار بر روی توسعه سیستم‌های دفاعی در برابر سلاح‌های بیولوژیکیِ تقویت‌شده با هوش مصنوعی اشاره کرده بود. اما گویا پروژه نهایی او، که به چگونگی تأثیر دستیارهای هوشمند بر تحریف و کاستن از انسانیت ما می‌پرداخت، نقطه عطفی در ناامیدی وی از مسیر کنونی این صنعت بوده است. تصمیم او برای نقل مکان به بریتانیا و دنبال کردن یک دوره تحصیلی در رشته شعر، نوعی عقب‌نشینی معنادار از دنیای پرسرعت و بی‌رحم فناوری محسوب می‌شود؛ گویی که شاعر شدن را راهی برای بازگشت به جوهره انسانی و یافتن پاسخی برای پرسش‌هایی یافته که هوش مصنوعی قادر به پاسخگویی به آنها نیست.

در پشت پرده این استعفا و هشدارها، روند مذاکراتی محرمانه‌ای میان آنتروپیک و پنتاگون جریان دارد که می‌تواند آینده استفاده از هوش مصنوعی در میدان‌های نبرد را برای همیشه تغییر دهد. بر اساس گزارش‌ها، این مذاکرات بر سر کاهش محدودیت‌های اعمال شده توسط شرکت بر روی مدل‌هایش، به ویژه در زمینه‌هایی چون هدف‌گیری خودکار با سلاح‌ها و نظارت داخلی، با بن‌بست مواجه شده است. پنتاگون که مشتاق بهره‌گیری از تمام ظرفیت‌های تهاجمی هوش مصنوعی است، خواستار دستیابی به سیستم‌هایی است که بدون قید و شرط در خدمت اهداف نظامی باشند. در سوی دیگر، آنتروپیک که تصویری ایمن از خود ساخته، در دوراهی سودآوری و حفظ اصول اخلاقی گرفتار شده است. توقف یک قرارداد بالقوه دویست میلیون دالری، نشان‌دهنده شدت این اختلاف نظر است. اظهارات تند وزیر جنگ ایالات متحده که تأکید کرده بود از مدل‌هایی که اجازه جنگیدن ندهند استفاده نخواهد کرد، فشار حداکثری پنتاگون بر این شرکت را آشکار می‌سازد. به نظر می‌رسد آنتروپیک در حال تجربه یک آزمون تاریخی است؛ آیا می‌تواند در برابر این فشارها مقاومت کند و به شعارهای ایمنی خود وفادار بماند، یا اینکه منافع مالی و فشارهای سیاسی، سرانجام او را به همان مسیری خواهد کشاند که رقبایش رفته‌اند؟

سرنوشت این مذاکرات و تصمیمات اتخاذ شده در اتاق‌های فکر پنتاگون و دفاتر شرکت‌های فناوری، تنها به یک قرارداد تجاری محدود نمی‌شود. این تصمیمات، معماری جهان آینده را شکل خواهند داد؛ جهانی که در آن الگوریتم‌ها ممکن است درباره مرگ و زندگی انسان‌ها تصمیم بگیرند. پیوند هوش مصنوعی با قدرت نظامی، بشریت را به نقطه بی‌بازگشتی نزدیک می‌کند. هشدارهایی که از دل شرکت‌های سازنده این فناوری شنیده می‌شود، شاید آخرین فریادهای وجدان جمعی در برابر سونامی اجتناب‌ناپذیری باشد که خود به راه انداخته‌ایم. استعفای افرادی چون شارما، نشانه‌ای از بحران عمیق معنوی و اخلاقی در قلب صنعت هوش مصنوعی است. او که مسئولیت مستقیم مهار خطرات را بر عهده داشت، اکنون به این نتیجه رسیده که راه حل را باید در جای دیگری جستجو کند؛ شاید در شعر، شاید در سکوت و شاید هم در بازگشت به همان انسانیت اصیلی که فناوری در حال فرسایش آن است. در این میان، سوال بی‌پاسخی برای همگان باقی می‌ماند: وقتی که خودِ سازندگان ایمنی از ادامه راه ناامید می‌شوند و به قول خود «نامرئی» می‌گردند، چه کسی و با چه ابزاری می‌تواند جلوی غول بی‌شاخ و دمی را بگیرد که با دستان خود پرورشش داده‌ایم؟ این پرسشی است که پاسخ آن نه در کدهای الگوریتمی، که در اعماق وجدان جمعی بشر ریشه دارد و شاید شاعران فردا بتوانند برای آن واژه‌ای بیابند، واژه‌ای برای روایت بزرگ‌ترین آزمون تاریخ تمدن ما.