
رابطه هوش مصنوعی و پنتاگون: جهان در وضعیتی به شدت مخاطرهآمیز قرار دارد.
مجله جنوب جهانی
در دنیای وحشی غربی و در وضعیت پرتنش روابط بینالملل و جنگهای مدرن، مرزهای اخلاقی و فناوری در غرب با سرعتی حیرتانگیز در حال جابهجایی هستند. آنچه تا دیروز در فیلمهای علمی-تخیلی به تصویر کشیده میشد، امروز به بخشی از واقعیت تلخ ژئوپلیتیک تبدیل شده است. تازهترین نمونه این ادغام هولناک میان هوش مصنوعی و عملیات نظامی، گزارشهایی است که از نقش مستقیم یک مدل زبانی پیشرفته در یک عملیات برونمرزی ارتش ایالات متحده حکایت دارد. بر اساس این گزارشها که از سوی رسانههای معتبری منتشر شده، پنتاگون در جریان عملیات ماه گذشته خود برای به دام انداختن نیکلاس مادورو، رئیسجمهور ونزوئلا، از مدل هوش مصنوعی کلود claude به طور فعال استفاده کرده است. این ادعا که استفاده از این فناوری صرفاً به مراحل برنامهریزی و مقدماتی محدود نبوده، بلکه در لحظه و در میدان عمل نیز به کار گرفته شده، ابعاد تازه و نگرانکنندهای را به بحث درباره کاربردهای نظامی هوش مصنوعی میافزاید.
شرکت «انسانمحور» کلود، یعنی آزمایشگاه هوش مصنوعی آنتروپیک که دفتر اصلی آن در سانفرانسیسکو قرار دارد، همواره در بیانیههای عمومی خود بر پایبندی به اصول ایمنی و اخلاقی تأکید کرده است. سیاستهای استفاده از این شرکت به صراحت هرگونه به کارگیری فناوریهایش را برای تسهیل خشونت، توسعه سلاح یا انجام عملیات نظارتی گسترده منع میکند. با این حال، گزارشها حاکی از آن است که در جریان یورش روز سوم ژانویه، دهها تن از نظامیان ونزوئلایی و کوبایی جان خود را از دست دادند. اگرچه مقامات آمریکایی بر عدم تلفات نیروهای خودی تأکید دارند، اما این پرسش اساسی مطرح میشود که آیا الگوریتمهای هوش مصنوعی کلود به نوعی در طراحی، هدایت یا اجرای این عملیات مرگبار نقش داشتهاند؟ پاسخ مقامات آنتروپیک به این پرسشها بسیار محتاطانه و در عین حال قابل تأمل است. آنها اعلام کردهاند که نمیتوانند در مورد استفاده از کلود یا هر مدل هوش مصنوعی دیگری در عملیات طبقهبندی شده اظهارنظر کنند، اما در عین حال بر الزام تمامی استفادهکنندگان دولتی یا خصوصی به رعایت سیاستهای این شرکت تأکید میکنند. این پاسخ دیپلماتیک، پرده از یک تناقض بزرگ برمیدارد؛ تناقض میان شعارهای ایمنی و قراردادهای نظامی پرسود.
رقبای اصلی آنتروپیک در عرصه هوش مصنوعی، نظیر اوپنآی، گوگل و شرکت ایلان ماسک، همگی توافقنامههایی با پنتاگون منعقد کردهاند که بر اساس آن، دسترسی ارتش به مدلهایشان با محدودیتهای بسیار کمتری نسبت به کاربران عادی همراه است. اما آنچه موقعیت کلود را در این میان متمایز میکند، همکاری ویژه آن با شرکت پالانتیر تکنولوژیز است. پالانتیر که به دلیل فعالیتهایش در حوزه تحلیل داده برای سازمانهای اطلاعاتی و نظامی شهرت دارد، زیرساختهای طبقهبندی شدهای را برای حساسترین عملیاتهای ارتش آمریکا فراهم میکند. استقرار کلود روی این پلتفرمهای امن، به معنای نفوذ مستقیم این مدل زبانی به قلب تصمیمگیریهای نظامی و اطلاعاتی ایالات متحده است. این واقعیت، زنگ خطر را برای فعالان عرصه ایمنی هوش مصنوعی به صدا درآورده است، زیرا نشان میدهد که یک فناوری با کاربردهای دوگانه، تا چه اندازه میتواند به ابزاری برای اعمال قدرت و خشونت تبدیل شود.
افشای این نقش در زمانی رخ میدهد که شرکت آنتروپیک سخت در تلاش است تا تصویری مسئولیتپذیر و ایمن از خود در افکار عمومی و میان سیاستگذاران به نمایش بگذارد. مدیرعامل این شرکت، داریو آمودی، بارها در مورد خطرات وجودی ناشی از استفاده بیمهار و بدون محدودیت از هوش مصنوعی هشدار داده است. او در مقالهای مفصل نسبت به قدرت تقریباً غیرقابل تصوری که این فناوری در آیندهای نزدیک در اختیار انسانها قرار خواهد داد، ابراز نگرانی کرده بود. این نگرانیها شامل سناریوهایی نظیر سرکشی و طغیان خود سیستمهای هوش مصنوعی علیه بشریت، و نیز استفاده از آنها برای ایجاد دیکتاتوریهای تمامیتخواه جهانی از طریق ابزارهای نظارتی پیشرفته و سلاحهای خودمختار است. اما آنچه در عمل رخ مینماید، شکاف عمیقی میان این هشدارها و عملکرد تجاری-نظامی شرکت را آشکار میسازد. نمونه بارز این شکاف، استعفای ناگهانی و پررمز و راز سرپرست تیم تحقیقات ایمنی آنتروپیک است.
مرینانک شارما، پژوهشگر برجستهای که هدایت تیم ضمانتهای ایمنی کلود را بر عهده داشت، با انتشار نامه استعفای خود در شبکههای اجتماعی، جهان فناوری را شوکه کرد. او در این نامه، که خطاب به همکارانش نوشته شده بود، از یک بیداری شخصی در مورد «وضعیت ما» سخن گفت و جهان را در وضعیتی به شدت مخاطرهآمیز توصیف کرد. شارما هشدار داد که این خطرات صرفاً به هوش مصنوعی یا سلاحهای بیولوژیکی محدود نمیشود، بلکه مجموعهای از بحرانهای به هم پیوسته در همین لحظه در حال گریبانگیر کردن جهان هستند. او در بخشی از نامه خود، به تلخی از دشواری پایبندی به ارزشهای بنیادین در عمل سخن گفت و اعتراف کرد که بارها شاهد بوده چگونه فشارهای درون سازمانی و اجتماعی باعث میشود تا آنچه واقعاً اهمیت دارد، به حاشیه رانده شود. این اعتراف صریح از سوی فردی که مسئولیت اصلی پیشگیری از فجایع ناشی از سوءاستفاده از هوش مصنوعی را بر عهده داشته، نشاندهنده نوعی بنبست اخلاقی در درون این شرکت پیشرو است.
استعفای شارما تنها چند روز پس از انتشار نسخه قدرتمندتر ابزار کلود توسط آنتروپیک رخ داد؛ نسخهای که با وجود قدرت بیشتر، نگرانیهای عمیقتری را در مورد سوءاستفادههای احتمالی از آن برانگیخت. تیمی که شارما رهبری آن را بر عهده داشت، اندکی بیش از یک سال پیش با هدف مشخص رسیدگی به تهدیدات امنیتی جدی ناشی از هوش مصنوعی تأسیس شده بود. مأموریت این تیم شامل موضوعاتی حیاتی مانند جلوگیری از استفاده نادرست از مدلهای زبانی، مهار خطرات ناشی از همراستایی نادرست سیستمهای هوشمند با اهداف انسانی، و همچنین پیشگیری از فجایع بزرگی همچون طراحی و ساخت سلاحهای بیولوژیکی با کمک این فناوری بود. شارما خود با افتخار به کار بر روی توسعه سیستمهای دفاعی در برابر سلاحهای بیولوژیکیِ تقویتشده با هوش مصنوعی اشاره کرده بود. اما گویا پروژه نهایی او، که به چگونگی تأثیر دستیارهای هوشمند بر تحریف و کاستن از انسانیت ما میپرداخت، نقطه عطفی در ناامیدی وی از مسیر کنونی این صنعت بوده است. تصمیم او برای نقل مکان به بریتانیا و دنبال کردن یک دوره تحصیلی در رشته شعر، نوعی عقبنشینی معنادار از دنیای پرسرعت و بیرحم فناوری محسوب میشود؛ گویی که شاعر شدن را راهی برای بازگشت به جوهره انسانی و یافتن پاسخی برای پرسشهایی یافته که هوش مصنوعی قادر به پاسخگویی به آنها نیست.
در پشت پرده این استعفا و هشدارها، روند مذاکراتی محرمانهای میان آنتروپیک و پنتاگون جریان دارد که میتواند آینده استفاده از هوش مصنوعی در میدانهای نبرد را برای همیشه تغییر دهد. بر اساس گزارشها، این مذاکرات بر سر کاهش محدودیتهای اعمال شده توسط شرکت بر روی مدلهایش، به ویژه در زمینههایی چون هدفگیری خودکار با سلاحها و نظارت داخلی، با بنبست مواجه شده است. پنتاگون که مشتاق بهرهگیری از تمام ظرفیتهای تهاجمی هوش مصنوعی است، خواستار دستیابی به سیستمهایی است که بدون قید و شرط در خدمت اهداف نظامی باشند. در سوی دیگر، آنتروپیک که تصویری ایمن از خود ساخته، در دوراهی سودآوری و حفظ اصول اخلاقی گرفتار شده است. توقف یک قرارداد بالقوه دویست میلیون دالری، نشاندهنده شدت این اختلاف نظر است. اظهارات تند وزیر جنگ ایالات متحده که تأکید کرده بود از مدلهایی که اجازه جنگیدن ندهند استفاده نخواهد کرد، فشار حداکثری پنتاگون بر این شرکت را آشکار میسازد. به نظر میرسد آنتروپیک در حال تجربه یک آزمون تاریخی است؛ آیا میتواند در برابر این فشارها مقاومت کند و به شعارهای ایمنی خود وفادار بماند، یا اینکه منافع مالی و فشارهای سیاسی، سرانجام او را به همان مسیری خواهد کشاند که رقبایش رفتهاند؟
سرنوشت این مذاکرات و تصمیمات اتخاذ شده در اتاقهای فکر پنتاگون و دفاتر شرکتهای فناوری، تنها به یک قرارداد تجاری محدود نمیشود. این تصمیمات، معماری جهان آینده را شکل خواهند داد؛ جهانی که در آن الگوریتمها ممکن است درباره مرگ و زندگی انسانها تصمیم بگیرند. پیوند هوش مصنوعی با قدرت نظامی، بشریت را به نقطه بیبازگشتی نزدیک میکند. هشدارهایی که از دل شرکتهای سازنده این فناوری شنیده میشود، شاید آخرین فریادهای وجدان جمعی در برابر سونامی اجتنابناپذیری باشد که خود به راه انداختهایم. استعفای افرادی چون شارما، نشانهای از بحران عمیق معنوی و اخلاقی در قلب صنعت هوش مصنوعی است. او که مسئولیت مستقیم مهار خطرات را بر عهده داشت، اکنون به این نتیجه رسیده که راه حل را باید در جای دیگری جستجو کند؛ شاید در شعر، شاید در سکوت و شاید هم در بازگشت به همان انسانیت اصیلی که فناوری در حال فرسایش آن است. در این میان، سوال بیپاسخی برای همگان باقی میماند: وقتی که خودِ سازندگان ایمنی از ادامه راه ناامید میشوند و به قول خود «نامرئی» میگردند، چه کسی و با چه ابزاری میتواند جلوی غول بیشاخ و دمی را بگیرد که با دستان خود پرورشش دادهایم؟ این پرسشی است که پاسخ آن نه در کدهای الگوریتمی، که در اعماق وجدان جمعی بشر ریشه دارد و شاید شاعران فردا بتوانند برای آن واژهای بیابند، واژهای برای روایت بزرگترین آزمون تاریخ تمدن ما.

