فرمان ترامپ درباره هوش مصنوعی باوا ایجاد کرد

رسانه های چینی
ترجمه مجله جنوب

در عصری که هوش مصنوعی به عنوان یکی از قدرتمندترین و پیچیده‌ترین ابزارهای قرن بیست و یکم شناخته می‌شود، مسائل اخلاقی، بی‌طرفی و سیاست‌های مرتبط با آن نیز هر روز اهمیت بیشتری پیدا می‌کنند.

به تازگی، فرمان اجرایی دونالد ترامپ، رئیس‌جمهور سابق آمریکا، در مورد استفاده از هوش مصنوعی در دولت فدرال، بحث‌های گسترده‌ای را برانگیخته است. این فرمان که با عنوان «برنامه اقدام هوش مصنوعی» ارائه شده، هدفش کاهش مقررات مربوط به توسعه این فناوری است، اما در عین حال، الزاماتی را برای بی‌طرفی و عدم دخالت ایدئولوژی در سیستم‌های هوش مصنوعی تعیین کرده است. بسیاری این الزامات را نوعی سانسور و اعمال فشار سیاسی می‌دانند.

ترامپ در این فرمان، به صراحت از سیاست‌های «تنوع، عدالت و شمولیت» (DEI) به عنوان «مخرب‌ترین شکل آگاهی» یاد کرده و معتقد است که این سیاست‌ها می‌توانند به کیفیت و دقت هوش مصنوعی آسیب بزنند. او اعلام کرده است که دولت فدرال نباید از ابزارهای هوش مصنوعی «دارای سوگیری ایدئولوژیک» استفاده کند و از رواج «هوش مصنوعی بیدار» در ساختار دولتی جلوگیری خواهد کرد. اصطلاح «هوش مصنوعی بیدار» که در تضاد با مفهوم «بیداری اجتماعی» است، در فضای سیاسی امروز آمریکا به نمادی برای انتقاد از سیاست‌های لیبرال و چپ‌گرایانه تبدیل شده است.

اگرچه هوش مصنوعی کاربردهای گسترده‌ای در دولت آمریکا پیدا کرده و شرکت‌های بزرگ فناوری مانند گوگل، مایکروسافت و آنتروپیک هنوز به طور رسمی به این فرمان واکنش نشان نداده‌اند، OpenAI (شرکت توسعه‌دهنده مدل معروف ChatGPT) اعلام کرده است که منتظر دریافت دستورالعمل‌های دقیق‌تر است، اما معتقد است که تلاش‌هایش برای دستیابی به بی‌طرفی در مدل‌های خود می‌تواند الزامات ترامپ را برآورده کند.

با این حال، این فرمان نه تنها واکنش‌های سیاسی، بلکه نگرانی‌های جدی را در میان متخصصان حقوق مدنی و فناوری نیز برانگیخته است. سازمان حقوق مدنی و فناوری، از طریق الکساندرا مونتویا-بویر (معاون ارشد خود)، اعلام کرده است که این فرمان می‌تواند تأثیر زیادی بر صنعت فناوری داشته باشد، در حالی که «هوش مصنوعی بیدار» اصلاً وجود خارجی ندارد. او همچنین اشاره کرد که در حالی که برخی از سیستم‌های هوش مصنوعی ممکن است سوگیری داشته باشند، برخی دیگر تلاش می‌کنند تا برای همه گروه‌های جامعه بی‌طرف باشند.

جیم سکرتو، کارشناس سابق وزارت بازرگانی آمریکا، نیز به این نکته اشاره کرده است که هوش مصنوعی مستقیماً از داده‌هایی که با آن‌ها آموزش داده شده، نشأت می‌گیرد و این داده‌ها حاوی تمام تضادها و سوگیری‌های موجود در زبان انسان‌ها هستند. او معتقد است که ترامپ با استفاده از قراردادهای دولتی به عنوان اهرم فشار، شرکت‌ها را مجبور به خودسانسوری می‌کند تا در راستای سیاست‌های فعلی حرکت کرده و منافع مالی خود را حفظ کنند.

در مقابل، طرفداران ترامپ از این فرمان دفاع کرده‌اند. نیل چیلسون، کارشناس فناوری که قبلاً در کمیسیون تجارت فدرال آمریکا فعالیت داشته، تأکید کرده است که این فرمان شرکت‌ها را ملزم به تولید یا عدم تولید محصولات خاصی نمی‌کند، بلکه فقط از توسعه‌دهندگان می‌خواهد که به طور عمدی ایدئولوژی را در مدل‌های هوش مصنوعی وارد نکنند.

با وجود این دفاعیه‌ها، برخی از تحلیلگران هشدار داده‌اند که این رویکرد ممکن است به جای کمک به بی‌طرفی، زمینه را برای سانسور سیاسی و ایدئولوژیک فراهم کند. رایان هاوزر، محقق در مرکز مُکاتِس، معتقد است که تلاش برای دستیابی به بی‌طرفی ایدئولوژیک در هوش مصنوعی غیرممکن است و تنها نتیجه آن، تطبیق مداوم شرکت‌ها با خواسته‌های سیاسی روز است.

در ادامه این بحث، مسائلی مانند سوگیری هوش مصنوعی در تصاویر و محتوای تولیدشده نیز مطرح شده‌اند. به عنوان مثال، مدل هوش مصنوعی Gemini از گوگل، در فوریه سال گذشته به دلیل تولید تصاویری از افراد سیاه‌پوست در پاسخ به درخواست تولید تصاویری از بنیان‌گذاران آمریکا، با انتقادهای زیادی مواجه شد. گوگل این اتفاق را ناشی از «جبران‌گری بیش از حد» دانست، اما این موضوع در گفتمان سیاسی ترامپ و طرفدارانش به عنوان شاهدی بر تلاش عمدی برای ترویج ایدئولوژی «بیدار» تلقی شد.

از سوی دیگر، ایلان ماسک، که پیش از این نیز از منتقدان ایدئولوژی چپ در آمریکا بوده، با معرفی مدل هوش مصنوعی Grok خود وارد این مناقشه شده است. این مدل که در شبکه اجتماعی X توسعه یافته، با مشکلاتی مواجه شد که در آن افکاری در تمجید از هیتلر و تئوری‌های توطئه ظاهر می‌شد. شرکت xAI اعلام کرد که این مسائل ناشی از مشکلات در آموزش مدل بوده و در حال تلاش برای رفع آن‌هاست.

به طور خلاصه، فرمان ترامپ واکنش‌های گسترده‌ای را نه تنها در حوزه فناوری، بلکه در زمینه‌های سیاست، اخلاق و حقوق مدنی نیز برانگیخته است. در حالی که ترامپ ادعا می‌کند که از «آزادی بیان و ارزش‌های آمریکایی» دفاع می‌کند، منتقدان معتقدند که این فرمان موانع جدیدی را برای شرکت‌های فناوری ایجاد می‌کند و آن‌ها را مجبور به خودسانسوری و تطبیق با خواسته‌های سیاسی روز می‌کند. همچنین، تعریف دقیق «بی‌طرفی ایدئولوژیک» در دنیای پیچیده هوش مصنوعی، یک چالش جدی و بدون پاسخ مشخص است.

در نهایت، در حالی که هوش مصنوعی می‌تواند ابزاری قدرتمند برای پیشرفت جوامع باشد، تلاش برای کنترل آن از طریق دستورات سیاسی و ایدئولوژیک می‌تواند نه تنها به توسعه این فناوری آسیب برساند، بلکه راه را برای سانسور و تبعیض نیز هموار کند. سوال اصلی این است که آیا می‌توان در دنیایی که انسان‌ها دارای دیدگاه‌های متنوع و گاه متضاد هستند، هوش مصنوعی کاملاً بی‌طرف ایجاد کرد یا خیر؟ پاسخ به این سوال، نه تنها در حوزه فناوری، بلکه در حوزه‌های سیاست، اخلاق و جامعه‌شناسی نیز نهفته است.