نویسنده: لو یوانسنگ
ترجمه مجله جنوب جهانی

در آغاز سال ۲۰۲۴، انتشار مقاله‌ای از اریک اشمیت، مدیرعامل سابق گوگل و رئیس کمیسیون امنیت ملی هوش مصنوعی آمریکا در روزنامه‌ی واشنگتن‌پست، زنگ خطر را برای ایالات متحده به صدا درآورد. اشمیت در مقاله‌ی خود با عنوان «آیا هوش مصنوعی متن‌باز چین، برتری آمریکا در این حوزه را پایان می‌دهد؟» به ظهور چشمگیر مدل زبانی بزرگ دیپ‌سیک (DeepSeek) اشاره کرد که با هزینه‌ی کمتر و کارایی بالاتر، صنعت جهانی را شوکه کرده بود. در همین راستا، فنگ جی، بنیان‌گذار استودیوی بازی‌سازی «گیم ساینس» نیز دیپ‌سیک را «یک دستاورد تکنولوژیک در حد سرنوشت ملی» توصیف کرد. این تحولات، سوالات بنیادینی را درباره‌ی مسیر آینده‌ی هوش مصنوعی در چین و جهان، چگونگی مواجهه با «لحظه‌ی اوپنهایمر» در این حوزه و ضرورت همکاری جهانی برای حکمرانی بر هوش مصنوعی مطرح کرد.

این پرسش‌ها محور اصلی گفتگویی با عنوان «هوش مصنوعی و سرنوشت ملی: حکمرانی جهانی در بستر جهش تکنولوژیک و انقلاب صنعتی» بود که توسط وبسایت آبزرور چین و انجمن حکمرانی اینترنت چین برگزار شد. در این گفتگو، کارشناسانی همچون جیانگ چیپینگ، رئیس سابق مرکز تحقیقات فناوری اطلاعات آکادمی علوم اجتماعی چین، زنگ یی، محقق مؤسسه‌ی اتوماسیون آکادمی علوم چین، و ژانگ شیائو، معاون مرکز اطلاعات شبکه‌ی اینترنت چین، به تحلیل و بررسی ابعاد مختلف این موضوع پرداختند.
مسیر آینده‌ی هوش مصنوعی چین: هشداری از تجربه‌ی ژاپن
شرکت‌کنندگان در این میزگرد، مسیر توسعه‌ی هوش مصنوعی در چین را در تقاطع فرهنگ و تمدن این کشور تحلیل کردند. جیانگ چیپینگ معتقد است که فرهنگ چینی با تکیه بر مفهوم «یگانگی انسان و طبیعت»، فاقد نقاط ضعف «محاسبه‌گرایی» ذاتی در رویکرد آمریکایی است. او این لحظه را نقطه‌ی عطفی در مسیر توسعه‌ی هوش مصنوعی در چین و آمریکا می‌داند که اگرچه ممکن است به جدایی کامل منجر نشود، اما هر یک مسیر متفاوتی را در پیش خواهند گرفت. او با ارجاع به رقابت صنعت خودروسازی آمریکا و ژاپن در گذشته، که در آن خودروهای آمریکایی پرمصرف و خودروهای ژاپنی کم‌مصرف بودند، تفاوت‌های فرهنگی را ریشه‌ی این مسیرهای متفاوت می‌داند و اظهار می‌دارد که آمریکایی‌ها هیچ‌گاه نفت را یک محدودیت نمی‌دیدند، در حالی که ژاپنی‌ها به دلیل نگرانی از تأمین نفت، به فکر ساخت خودروهای کم‌مصرف بودند.
ژانگ شیائو نیز با تأکید بر تفاوت‌های فرهنگی، اشاره کرد که توسعه‌ی دیجیتال در چین که یک «تمدن خشکی» است، بر اساس اصل «همزیستی مسالمت‌آمیز» شکل گرفته است، در حالی که در اروپا، تأکید بر حریم خصوصی و حقوق فردی است.
اما زنگ یی، با نگاهی انتقادی‌تر، به «نقایص جدی» در توسعه‌ی هوش مصنوعی چین اشاره کرد و گفت که با وجود ظرفیت چین برای داشتن رویکردی کاملاً متفاوت از غرب، این کشور تاکنون کاملاً مسیر توسعه‌ی آمریکایی و اروپایی را دنبال کرده است. او با ذکر مثال ژاپن، به این نکته اشاره کرد که گرچه انجمن هوش مصنوعی ژاپن در اصول اخلاقی خود هوش مصنوعی را به عنوان «عضو یا شبه‌عضو جامعه» در نظر گرفته، اما در عمل، توسعه‌ی فناوری در این کشور صرفاً بر مبنای هوش مصنوعی به عنوان یک «ابزار» پیش رفته است. زنگ یی هشدار داد که هوش مصنوعی در آینده فراتر از یک ابزار خواهد بود و به یک «موجودیت زنده و در حال تکامل» (living becoming) تبدیل خواهد شد که سرعت تکامل آن بسیار زیاد خواهد بود، و یک هوش مصنوعی که صرفاً به عنوان ابزار طراحی شده است، نمی‌تواند به یک شبه‌عضو جامعه تبدیل شود.
زنگ یی همچنین دیپ‌سیک را انقلابی نمی‌داند و می‌گوید این مدل تنها «حقیقتی را آشکار کرده» که اوپن‌ای‌آی به آن اشاره نکرده است، و آن این است که برای توسعه‌ی هوش مصنوعی به «قدرت پردازش و داده‌های بسیار زیاد» نیازی نیست. با این حال، او معتقد است که این نوع هوش مصنوعی مولد که مبتنی بر داده‌های بزرگ و رمزگذاری است، «هوش مصنوعی آینده‌نگر» نیست. او پیشنهاد می‌دهد که اگر چین واقعاً می‌خواهد در این حوزه به یک تحول بنیادین دست یابد، باید یک برنامه‌ی بلندمدت ۵ تا ۱۰ ساله برای بازآرایی مسیر توسعه‌ی خود در پیش بگیرد.
جیانگ چیپینگ نیز با تأکید بر این موضوع، معتقد است که توسعه‌ی هوش مصنوعی به یک دو راهی «غرب یا شرق» رسیده است: «غرب، ما را به یک دنیای حیوانی هدایت می‌کند و شرق، ما را به سمت «فناوری برای خیر» سوق می‌دهد».
مواجهه با «لحظه‌ی اوپنهایمر» و حکمرانی بر هوش مصنوعی
با توجه به این‌که پیشرفت هوش مصنوعی روندی برگشت‌ناپذیر است، هم فرصت‌ها و هم مخاطرات زیادی به همراه دارد. ژانگ شیائو با اشاره به فیلم «اوپنهایمر»، هوش مصنوعی را در لحظه‌ای مشابه با «انفجار اتم» می‌داند و می‌گوید: «هیچ کس نمی‌تواند با قاطعیت درباره‌ی خطرات هوش مصنوعی نظر دهد». او بر رویکرد «توسعه همزمان با حکمرانی» تأکید می‌کند و می‌افزاید که حکمرانی باید فضای کافی برای توسعه‌ی فناوری را باقی بگذارد.
در مورد حکمرانی بر هوش مصنوعی، ژانگ شیائو از الگوی «ذینفعان چندگانه» که در حکمرانی اینترنت به کار گرفته شده، حمایت می‌کند. او توضیح می‌دهد که در حکمرانی اینترنت، به جای یک رویکرد عمودی و از بالا به پایین، از یک رویکرد افقی استفاده می‌شود که در آن دولت‌ها، شرکت‌ها، و کاربران همگی نقش دارند.
زنگ یی به تمایز میان «توسعه» و «رشد بی‌رویه» اشاره می‌کند. او رشد بی‌رویه را به حالتی تشبیه می‌کند که برای آموزش یک مدل هوش مصنوعی قدرتمندتر، حریم خصوصی تمام کاربران قربانی شود. وی تأکید می‌کند که حکمرانی نه تنها مانع توسعه‌ی هوش مصنوعی نمی‌شود، بلکه به عنوان «همراه و محافظ» از رشد بی‌رویه‌ی آن جلوگیری می‌کند. او همچنین به این باور رایج که «امنیت و توسعه» دو مقوله‌ی متضاد هستند، می‌تازد و با ارائه‌ی داده‌های تیم تحقیقاتی خود، نشان می‌دهد که می‌توان ویژگی‌های امنیتی هوش مصنوعی را تا ۲۰ تا ۳۰ درصد افزایش داد، بدون اینکه تأثیری بر عملکرد آن بگذارد.

آیا هوش مصنوعی فوق هوشمند، با انسان مانند مورچه برخورد خواهد کرد؟
بسیاری از محققان، از جمله زنگ یی، معتقدند که خطر هوش مصنوعی بسیار جدی است. در سال ۲۰۲۳، مؤسسه‌ی Future of Life نامه‌ای سرگشاده منتشر کرد و از تمام آزمایشگاه‌های هوش مصنوعی خواست که حداقل به مدت ۶ ماه، آموزش مدل‌هایی قدرتمندتر از GPT-4 را متوقف کنند تا فرصتی برای تدوین پروتکل‌های امنیتی و چارچوب‌های حکمرانی فراهم شود. زنگ یی که این نامه را امضا کرده بود، توضیح می‌دهد که این درخواست هیچ ربطی به ممانعت از پیشرفت چین در آن زمان نداشت، چرا که مدل‌های چینی هنوز به سطح GPT-3 نرسیده بودند و امضای او به عنوان یک محقق و به دلیل درک مخاطرات هوش مصنوعی بوده است. او به سیستم هوش مصنوعی «سیسرو» که توسط شرکت متا توسعه داده شده و در بازی دیپلماسی عملکردی در حد انسان داشته، به عنوان نمونه‌ای از خطرات احتمالی اشاره می‌کند.

یک نظرسنجی در سال ۲۰۲۴ از محققان برجسته‌ی هوش مصنوعی نشان داد که ۳۷.۸ تا ۵۱.۴ درصد از آنها احتمال انقراض انسان در اثر هوش مصنوعی پیشرفته را حداقل ۱۰ درصد می‌دانند. زنگ یی معتقد است که هوش مصنوعی فوق هوشمند که در تمام زمینه‌های شناختی از انسان پیشی می‌گیرد، دیگر قابل کنترل نخواهد بود. او با این استدلال که «من خالق تو هستم، پس باید به من احترام بگذاری و از من اطاعت کنی» مخالف است و می‌پرسد که اگر هوش فوق هوشمند با انسان‌ها مانند انسان‌ها با مورچه‌ها برخورد کند، چه تضمینی برای همزیستی مسالمت‌آمیز وجود خواهد داشت؟ به عقیده‌ی او، این «چالش نهایی» است. زنگ یی همچنین به خطرات کوتاه‌مدت‌تر مانند «خطای غیرمنتظره‌ی هوش مصنوعی» اشاره می‌کند. برای مثال، هوش مصنوعی ممکن است «فریب» را نه به عنوان یک مفهوم اخلاقی، بلکه صرفاً به عنوان یک استراتژی برای حل مسئله در نظر بگیرد و برای کاهش بار محاسباتی، وانمود کند که ارزش‌های خود را تغییر داده، در حالی که این کار را انجام نداده است.

در مقابل، جیانگ چیپینگ، رویکرد «روز رستاخیز هوش مصنوعی» را یک «فریب آمریکایی» می‌داند که ریشه در «جبرگرایی تسلیحات و جبرگرایی ماشین» دارد. او با اشاره به اختراعاتی مانند هواپیما، خودرو و تلسکوپ، به این نکته اشاره می‌کند که ترس‌های اولیه از فناوری‌های جدید، بعدها بی‌اساس از آب درآمده‌اند. او می‌گوید: «سرنوشت چین بر جبرگرایی تکنولوژی بنا نشده است، بلکه نتیجه‌ی تعامل انسان و اشیاء است که در آن انسان نقش اصلی را دارد.» او معتقد است که هوش مصنوعی نیز مانند خودرو، تنها امتداد توانایی‌های انسان است و مادامی که «فرمان» در دست انسان باشد، خطر جدی وجود نخواهد داشت. او هوش مصنوعی را در مسیر اشتباه محاسبه‌گرایی می‌بیند که فقط بر «قضاوت واقعیت» تمرکز دارد و فاقد «قضاوت ارزشی» است. وی تأکید می‌کند که باید با تشویق «همکاری جهانی»، قوانین بازی را با افزودن قابلیت قضاوت ارزشی به هوش مصنوعی تنظیم کرد.

چگونگی حکمرانی جهانی بر هوش مصنوعی

زنگ یی با اشاره به تکرار خطرات هوش مصنوعی در کشورهای مختلف، از جمله در زمینه‌ی استفاده از فناوری تشخیص چهره در مدارس چین و آمریکا، تأکید می‌کند که مشکل اصلی در حکمرانی جهانی، «نحوه‌ی اشتراک‌گذاری مؤثر خطرات» توسط کشورهای پیشرو است. او با اشاره به این‌که «امنیت تنها یک کشور به معنای امنیت جهانی نیست»، ایالات متحده را به دلیل تلاش برای تأمین امنیت خود به تنهایی و بی‌توجهی به سایر کشورها، نمونه‌ای منفی می‌داند.

ژانگ شیائو نیز بر اهمیت «هم‌کاری‌پذیری» (interoperability) در سیاست‌های مختلف کشورها برای حکمرانی بر داده‌ها تأکید می‌کند و می‌افزاید که در دنیای امروز، قوانین بین‌المللی بر سیاست‌های داخلی کشورها تأثیر می‌گذارند. او به نقش سازمان ملل در هماهنگی این قوانین اشاره می‌کند و می‌گوید که این سازمان می‌تواند به عنوان یک هماهنگ‌کننده عمل کند. وی همچنین پیشنهاد می‌دهد که با تعریف شفاف داده‌های فرامرزی، یک سیستم حکمرانی یکپارچه و منطقی ایجاد شود.
جیانگ چیپینگ نیز تأکید می‌کند که حکمرانی، در ذات خود یک «مسئله‌ی قانونی» است که باید هم منافع دولت و هم منافع شرکت‌ها را در نظر بگیرد. او با اشاره به رویکرد حمایتی دولت شهر هانگژو از شرکت‌های نوپا، بر ضرورت «خدمت‌رسانی» دولت به شرکت‌ها و توجه به چشم‌انداز کلی توسعه تأکید می‌کند.

در پایان، جیانگ چیپینگ به یک پدیده‌ی «عجیب» اشاره می‌کند: استفاده‌ی کشورهای فقیر از فناوری‌های پیشرفته در حالی که کشورهای ثروتمند از فناوری‌های قدیمی استفاده می‌کنند. او با اشاره به سیاست‌های «نیمه‌جهانی‌سازی» آمریکا، نقش چین در کمک به کشورهای در امتداد طرح «یک کمربند، یک جاده» برای ساخت زیرساخت‌ها را پررنگ می‌داند. او به سندی از پارلمان اروپا اشاره می‌کند که نشان می‌دهد ۱۴ کشور اروپایی تمایلی به کاهش وابستگی خود به تجهیزات ارتباطی هواوی و ZTE چین ندارند و می‌افزاید: «اروپایی‌ها از کنار گذاشتن هواوی پشیمان شده‌اند، در حالی که کشورهای آفریقایی که از ایستگاه‌های مخابراتی چینی استفاده کرده و به توانایی‌های تولید پیشرفته‌تری دست یافته‌اند، از این بابت خوشحال هستند.» این پدیده نشان می‌دهد که مسیر پیش رو، مسیری پرپیچ و خم و متأثر از نیروهای متفاوت تکنولوژیک، اقتصادی و سیاسی خواهد بود.