فرمان ترامپ درباره هوش مصنوعی باوا ایجاد کرد
رسانه های چینی
ترجمه مجله جنوب
در عصری که هوش مصنوعی به عنوان یکی از قدرتمندترین و پیچیدهترین ابزارهای قرن بیست و یکم شناخته میشود، مسائل اخلاقی، بیطرفی و سیاستهای مرتبط با آن نیز هر روز اهمیت بیشتری پیدا میکنند.
به تازگی، فرمان اجرایی دونالد ترامپ، رئیسجمهور سابق آمریکا، در مورد استفاده از هوش مصنوعی در دولت فدرال، بحثهای گستردهای را برانگیخته است. این فرمان که با عنوان «برنامه اقدام هوش مصنوعی» ارائه شده، هدفش کاهش مقررات مربوط به توسعه این فناوری است، اما در عین حال، الزاماتی را برای بیطرفی و عدم دخالت ایدئولوژی در سیستمهای هوش مصنوعی تعیین کرده است. بسیاری این الزامات را نوعی سانسور و اعمال فشار سیاسی میدانند.
ترامپ در این فرمان، به صراحت از سیاستهای «تنوع، عدالت و شمولیت» (DEI) به عنوان «مخربترین شکل آگاهی» یاد کرده و معتقد است که این سیاستها میتوانند به کیفیت و دقت هوش مصنوعی آسیب بزنند. او اعلام کرده است که دولت فدرال نباید از ابزارهای هوش مصنوعی «دارای سوگیری ایدئولوژیک» استفاده کند و از رواج «هوش مصنوعی بیدار» در ساختار دولتی جلوگیری خواهد کرد. اصطلاح «هوش مصنوعی بیدار» که در تضاد با مفهوم «بیداری اجتماعی» است، در فضای سیاسی امروز آمریکا به نمادی برای انتقاد از سیاستهای لیبرال و چپگرایانه تبدیل شده است.
اگرچه هوش مصنوعی کاربردهای گستردهای در دولت آمریکا پیدا کرده و شرکتهای بزرگ فناوری مانند گوگل، مایکروسافت و آنتروپیک هنوز به طور رسمی به این فرمان واکنش نشان ندادهاند، OpenAI (شرکت توسعهدهنده مدل معروف ChatGPT) اعلام کرده است که منتظر دریافت دستورالعملهای دقیقتر است، اما معتقد است که تلاشهایش برای دستیابی به بیطرفی در مدلهای خود میتواند الزامات ترامپ را برآورده کند.
با این حال، این فرمان نه تنها واکنشهای سیاسی، بلکه نگرانیهای جدی را در میان متخصصان حقوق مدنی و فناوری نیز برانگیخته است. سازمان حقوق مدنی و فناوری، از طریق الکساندرا مونتویا-بویر (معاون ارشد خود)، اعلام کرده است که این فرمان میتواند تأثیر زیادی بر صنعت فناوری داشته باشد، در حالی که «هوش مصنوعی بیدار» اصلاً وجود خارجی ندارد. او همچنین اشاره کرد که در حالی که برخی از سیستمهای هوش مصنوعی ممکن است سوگیری داشته باشند، برخی دیگر تلاش میکنند تا برای همه گروههای جامعه بیطرف باشند.
جیم سکرتو، کارشناس سابق وزارت بازرگانی آمریکا، نیز به این نکته اشاره کرده است که هوش مصنوعی مستقیماً از دادههایی که با آنها آموزش داده شده، نشأت میگیرد و این دادهها حاوی تمام تضادها و سوگیریهای موجود در زبان انسانها هستند. او معتقد است که ترامپ با استفاده از قراردادهای دولتی به عنوان اهرم فشار، شرکتها را مجبور به خودسانسوری میکند تا در راستای سیاستهای فعلی حرکت کرده و منافع مالی خود را حفظ کنند.
در مقابل، طرفداران ترامپ از این فرمان دفاع کردهاند. نیل چیلسون، کارشناس فناوری که قبلاً در کمیسیون تجارت فدرال آمریکا فعالیت داشته، تأکید کرده است که این فرمان شرکتها را ملزم به تولید یا عدم تولید محصولات خاصی نمیکند، بلکه فقط از توسعهدهندگان میخواهد که به طور عمدی ایدئولوژی را در مدلهای هوش مصنوعی وارد نکنند.
با وجود این دفاعیهها، برخی از تحلیلگران هشدار دادهاند که این رویکرد ممکن است به جای کمک به بیطرفی، زمینه را برای سانسور سیاسی و ایدئولوژیک فراهم کند. رایان هاوزر، محقق در مرکز مُکاتِس، معتقد است که تلاش برای دستیابی به بیطرفی ایدئولوژیک در هوش مصنوعی غیرممکن است و تنها نتیجه آن، تطبیق مداوم شرکتها با خواستههای سیاسی روز است.
در ادامه این بحث، مسائلی مانند سوگیری هوش مصنوعی در تصاویر و محتوای تولیدشده نیز مطرح شدهاند. به عنوان مثال، مدل هوش مصنوعی Gemini از گوگل، در فوریه سال گذشته به دلیل تولید تصاویری از افراد سیاهپوست در پاسخ به درخواست تولید تصاویری از بنیانگذاران آمریکا، با انتقادهای زیادی مواجه شد. گوگل این اتفاق را ناشی از «جبرانگری بیش از حد» دانست، اما این موضوع در گفتمان سیاسی ترامپ و طرفدارانش به عنوان شاهدی بر تلاش عمدی برای ترویج ایدئولوژی «بیدار» تلقی شد.
از سوی دیگر، ایلان ماسک، که پیش از این نیز از منتقدان ایدئولوژی چپ در آمریکا بوده، با معرفی مدل هوش مصنوعی Grok خود وارد این مناقشه شده است. این مدل که در شبکه اجتماعی X توسعه یافته، با مشکلاتی مواجه شد که در آن افکاری در تمجید از هیتلر و تئوریهای توطئه ظاهر میشد. شرکت xAI اعلام کرد که این مسائل ناشی از مشکلات در آموزش مدل بوده و در حال تلاش برای رفع آنهاست.
به طور خلاصه، فرمان ترامپ واکنشهای گستردهای را نه تنها در حوزه فناوری، بلکه در زمینههای سیاست، اخلاق و حقوق مدنی نیز برانگیخته است. در حالی که ترامپ ادعا میکند که از «آزادی بیان و ارزشهای آمریکایی» دفاع میکند، منتقدان معتقدند که این فرمان موانع جدیدی را برای شرکتهای فناوری ایجاد میکند و آنها را مجبور به خودسانسوری و تطبیق با خواستههای سیاسی روز میکند. همچنین، تعریف دقیق «بیطرفی ایدئولوژیک» در دنیای پیچیده هوش مصنوعی، یک چالش جدی و بدون پاسخ مشخص است.
در نهایت، در حالی که هوش مصنوعی میتواند ابزاری قدرتمند برای پیشرفت جوامع باشد، تلاش برای کنترل آن از طریق دستورات سیاسی و ایدئولوژیک میتواند نه تنها به توسعه این فناوری آسیب برساند، بلکه راه را برای سانسور و تبعیض نیز هموار کند. سوال اصلی این است که آیا میتوان در دنیایی که انسانها دارای دیدگاههای متنوع و گاه متضاد هستند، هوش مصنوعی کاملاً بیطرف ایجاد کرد یا خیر؟ پاسخ به این سوال، نه تنها در حوزه فناوری، بلکه در حوزههای سیاست، اخلاق و جامعهشناسی نیز نهفته است.

