نویسندگان: جورجیا آدامسن، پژوهشگر مؤسسه مطالعات پیشرو؛ گرگوری آلن، مشاور ارشد مرکز واردوانی هوش مصنوعی وابسته به اندیشکده راهبردی و مطالعات بین‌المللی (CSIS) 

ترجمه و تلخیص به چینی: لی شو 
ترجمه به فارسی مجله جنوب جهانی

«با یاری هوش مصنوعی، چشم‌انداز پژوهش در حوزه زیست‌شناسی تقریباً نامحدود است… اما در عین حال، افراد ناپاک نیت نیز می‌توانند از همین فناوری برای ساخت سلاح‌های زیستی جدید بهره ببرند.» 
— از «برنامه اقدام ملی هوش مصنوعی ایالات متحده» منتشرشده در سال ۲۰۲۵ در دوران دولت ترامپ 

برای مدت طولانی، هالیوود پیوسته آثاری درباره دانشمندان دیوانه‌ای تولید کرده که با استفاده از فناوری‌های اهریمنی، فاجعه‌ای جهانی می‌آفرینند. اما اکنون، در عصر زیست‌فناوری مبتنی بر هوش مصنوعی، این سناریو دیگر صرفاً تخیل نیست و ممکن است به‌زودی به واقعیت تبدیل شود. 

از منظر تاریخی، دلیل توانمندی ایالات متحده در حفظ امنیت ملی برای دوره‌ای طولانی آن بود که هزینه و پیچیدگی تولید سلاح‌های کشتار جمعی بسیار بالا بود. به عنوان مثال، ساخت و استقرار بمب اتمی مستلزم دانش تخصصی عظیم و سرمایه کلان است، امری که فراتر از توان مجرمان عادی محسوب می‌شود. حتی کشوری مانند عراقِ دوران صدام حسین که از منابع قابل توجهی برخوردار بود، هرگز نتوانست به فناوری هسته‌ای دست یابد. 

اما با گذر زمان، آستانه ورود به عرصه تولید برخی از انواع سلاح‌های کشتار جمعی، به‌ویژه سلاح‌های زیستی، به شکل چشمگیری کاهش یافت. امروزه چالش پیش‌روی نهادهای رسمی ایالات متحده آن است که چگونه باید میان حفظ امنیت زیستی و تسریع رشد زیست‌فناوری مبتنی بر هوش مصنوعی توازن برقرار کنند. در «برنامه اقدام ملی هوش مصنوعی» که دولت ترامپ در ژوئیه ۲۰۲۵ منتشر کرد، بر ضرورت تقویت امنیت زیستی آمریکا تأکید شده است. هرچند جزئیات مربوط به پیشنهادهایی همچون تشدید غربالگری سنتز اسید نوکلئیک و توسعه توان ارزیابی دولتیِ هوش مصنوعی هنوز تبیین نشده، اما این سند را می‌توان سرآغازی مناسب برای پایه‌گذاری سامانه دفاع زیستی ایالات متحده در عصر هوش مصنوعی دانست. 

عصر کاهش مانع تولید سلاح‌های زیستی 

در طی حدود یک قرن گذشته، هزینه مالی و نیازمندی‌های فنی جهت توسعه سلاح‌های زیستی به‌طرز چشمگیری کاسته شده است. در جریان جنگ جهانی دوم، برنامه سلاح‌های زیستی ایالات متحده حدود ۴۵۰۰ نفر از جمله تعداد زیادی متخصص فنی را به کار گرفت. بودجه کل آن ۶۰ میلیون دلار بود، یعنی تقریباً سه درصد از هزینه‌های «پروژه منهتن» (برنامه ارتش آمریکا در سال ۱۹۴۲ برای تولید بمب اتم که بیش از ۱۰۰هزار نفر در آن مشارکت داشتند و سه سال طول کشید و دو میلیارد دلار هزینه در برداشت). برنامه جنگ زیستی ژاپن نیز در همان دوران حدود ۳۰۰۰ نفر، از جمله صدها پزشک برجسته این کشور را به خدمت گرفته بود. 

در دهه ۱۹۹۰، گروه تروریستی ژاپنی «اوم شینریکیو» با کمتر از ۲۰ عضو فنی بارها کوشید از باکتری بوتولیسم و باسیل آنتراکس برای اجرای حملات تروریستی استفاده کند، که خوشبختانه موفق نشد. 

در سال ۲۰۱۷، دو دانشمند کانادایی تنها با صرف ۱۰۰هزار دلار توانستند ویروس آبله‌ اسبیِ منقرض‌شده را بازسازی کنند. آنان برای این کار، مراحل مقدماتی را به آزمایشگاه‌های تجاری سنتز DNA واگذار کردند؛ آزمایشگاه‌هایی که پس از تولید قطعات ژنتیکی، آن‌ها را از طریق پست ارسال می‌کردند. سپس پژوهشگران در آزمایشگاه خود DNAها را به‌هم پیوستند و با استفاده از ویروسی کمکی، آن را به درون سلول تزریق کردند و در نهایت، ویروس بازسازی‌شده را به‌دست آوردند. 

هدف از این پژوهش بهبود فرایند تولید واکسن و درمان سرطان عنوان شد، اما حادثه یادشده نگرانی عمیقی برانگیخت، زیرا نشان داد حتی گروه کوچکی از پژوهشگران با دانش متوسط می‌توانند شاید ظرف چند ماه، ویروس آبله را احیا کنند. 

هوش مصنوعی: گسترش‌دهنده سلاح‌های زیستی؟ 

رشد سریع هوش مصنوعی به این معناست که امروز تنها چند نفر قادرند به کمک آن سلاح‌های زیستی بسازند. در ۵ مارس ۲۰۲۵، اریک اشمیت، مدیرعامل پیشین گوگل، به همراه دیگران در مقاله‌ای هشدار داد که هوش مصنوعی می‌تواند گام‌به‌گام مجرمان را در طراحی پاتوژن‌های مرگبار، تهیه مواد و بهینه‌سازی روش‌های انتشار آن‌ها یاری کند. داریو آمودی، مدیرعامل آزمایشگاه هوش مصنوعی Anthropic نیز این ارزیابی را تأیید کرد و در آغاز همان سال تصریح نمود که مدل تازه این شرکت، «Claude 3.7 Sonnet»، در آزمایش‌ها توانایی‌هایی از خود نشان داده که «ممکن است در فرآیند توسعه سلاح‌های زیستی قابل بهره‌برداری باشد» و این امر بسیار نگران‌کننده است. 

هوش مصنوعی اکنون می‌تواند در عمل به مجرمان یاری رساند تا سلاح‌های زیستی تولید کنند. نخست اینکه بسیاری از آزمایشگاه‌های پیشروی هوش مصنوعی هشدار داده‌اند که مدل‌های زبانی تجاری مشهور تا حد زیادی موانع دانشی در زمینه طراحی حملات زیستی را برمی‌دارند. دوم اینکه ابزارهای طراحی زیستی نیز می‌توانند در خلق پاتوژن‌های جدید به کار گرفته شوند. 

(۱) مدل‌های زبانی بزرگ و کاهش مانع اطلاعاتی 

در فوریه ۲۰۲۵، شرکت OpenAI در گزارش ارزیابی ایمنی محصول «Deep Research» اعلام کرد: «مدل ما به مرحله‌ای نزدیک شده است که افراد مبتدی می‌توانند با کمک آن حملات زیستی طراحی کنند.» کمتر از یک هفته بعد، پژوهشی تازه نشان داد که مدل «o3» این شرکت در آزمونی درباره عیب‌یابی پروتکل‌های پیچیده آزمایشگاهی ویروس‌شناسی، از ۹۴ درصد از ویروس‌شناسان حرفه‌ای عملکرد بهتری دارد. 

OpenAI تنها آزمایشگاهی نیست که چنین پیشرفتی داشته است. ارزیابی شرکت Anthropic نیز نشان داد مدل Claude 3.7 Sonnet می‌تواند کمک‌های واقعی به افراد در طراحی سلاح‌های زیستی ارائه دهد. نتایج این ارزیابی‌ها از چندین مرکز برتر جهان نشان می‌دهد که مدل‌های زبانی در حال نزدیک شدن یا حتی عبور از آستانه‌ای هستند که فراتر از سطح ایمنی تلقی می‌شود و اکنون قادرند اطلاعاتی هم‌سنگ یا فراتر از دانش کارشناسان انسانی در اختیار کاربران بگذارند. 

(۲) ابزارهای طراحی زیستی و تولید پاتوژن‌های پرخطر 

در ۱۹ فوریه ۲۰۲۵، بزرگ‌ترین مدل پایه در حوزه زیست‌هوش مصنوعی با نام Evo2 معرفی شد. این مدل با استفاده از داده‌هایی شامل بیش از ۱۲۸هزار ژنوم از انسان، حیوانات، گیاهان، باکتری‌ها و حتی ویروس‌ها آموزش یافت. Evo2 قادر است توالی‌های DNA را شناسایی و ژنوم موجودات جدیدی را طراحی کند. پژوهشگران می‌توانند با وارد کردن رشته‌های DNA واقعی یا مجازی، رشد بالقوه آن موجود را شبیه‌سازی کنند. 

اما این فناوری خطرآفرین نیز هست. تبهکاران می‌توانند از چنین ابزارهایی برای خلق سویه‌های جدید آنفلوانزای فوق‌العاده مرگ‌بار و مسری استفاده کنند. 

بر اساس ارزیابی مؤسسه غیرانتفاعی Epoch AI، منابع محاسباتی مورد استفاده در آموزش ابزارهای برتر زیستی بین سال‌های ۲۰۱۷ تا ۲۰۲۱ به‌طور میانگین سالانه ۲۱ برابر افزایش یافته است، یعنی تقریباً هر سه ماه دو برابر شده. حجم داده‌های آموزشی آن‌ها نیز در همین مدت هر سال ۱۰ برابر افزایش داشته است. هرچند این رشد اکنون اندکی کندتر شده، اما سرعت پیشرفت همچنان نگران‌کننده است. 

چگونگی افزایش خطرات زیستی با پیشرفت هوش مصنوعی 

در حال حاضر، ساخت سلاح‌های زیستی هنوز با موانع فنی متعدد روبه‌روست؛ انتخاب گونه‌ مناسب ویروس یا باکتری، کنترل سرعت تکثیر و جهش، و حفظ ویژگی‌های مورد انتظار در حمله—all از جمله چالش‌ها هستند. دولت‌ها می‌باید نظام‌های پدافند چندلایه را در برابر هر گام از مسیر ایجاد سلاح‌های زیستی مستقر کنند—از کنترل پاسخ مدل‌های هوش مصنوعی گرفته تا غربالگری ژنتیکی یا تمهیدات فیزیکی و مدیریتی. 

اما با پیشرفت مداوم هوش مصنوعی، برخی از این لایه‌های حفاظتی ممکن است کارایی خود را از دست بدهند. در ادامه، دو حوزه آسیب‌پذیر اصلی—امنیت ابزارهای طراحی زیستی و فرایند غربالگری اسید نوکلئیک—بررسی می‌شود. 

الف) سازوکار امنیتی ابزارهای طراحی زیستی: شکاف‌های موجود در سری مدل‌های Evo 

تیم توسعه Evo2 کوشیده است تا داده‌های آموزشی مدل عاری از ژنوم‌های پاتوژن‌های مسری باشد. اما اگر روزی مدل‌هایی مانند Evo2 بتوانند حتی به‌طور ناخواسته توالی ژنتیکی تازه‌ای با قابلیت بیماری‌زایی طراحی کنند، توسعه‌دهندگان دیگر کنترلی بر کاربردهای خطرناک آن نخواهند داشت. 
 
در سال ۲۰۲۴ نیز در نمونه‌ای مشابه، داده‌های حذف‌شده از نسخه پیشین مدل (Evo1) مجدداً از سوی پژوهشگران بازافزایی شد. به این ترتیب، هرچند نسخه اصلی فاقد داده‌های ویروسی مضر بود، ولی کاربران توانستند با صرف هزینه‌ای اندک، آن را تنظیم مجدد کنند و ظرفیت‌های خطرناک را بازگردانند. 

از میان حدود ۳۷۰ مدل زیستی تحلیل‌شده، کمتر از سه درصد دارای تدابیر ایمنی مؤثر بودند. ازاین‌رو حتی مدل‌های پیشرفته‌ مانند Evo2 نیز نمی‌توانند مدافع قابل اعتمادی در برابر خطرات زیستی باشند. 

ب) غربالگری اسید نوکلئیک: محدودیت‌های فهرست‌های موجود 

در فرایند ساخت سلاح زیستی، حتی در صورت طراحی یک پاتوژن جدید، مجرمان برای تولید فیزیکی DNA به شرکت‌های سنتز ژن مراجعه می‌کنند. این شرکت‌ها اکنون می‌توانند رشته‌های سفارشی DNA یا RNA را ظرف چند روز و با هزینه‌ای ناچیز تولید و ارسال کنند. 

دولت آمریکا از شرکت‌ها خواسته است تا تمامی سفارش‌ها را از نظر وجود توالی‌های خطرناک بررسی کنند. در سال ۲۰۲۳، وزارت بهداشت و خدمات انسانی این کشور دستورالعمل تازه‌ای صادر کرد که شرکت‌ها را ملزم به تطبیق تمامی توالی‌های DNA یا RNA با فهرست رسمی عوامل بیماری‌زا و همچنین ردیابی کاربران نهایی می‌کند. 

اما با ادغام سریع هوش مصنوعی و زیست‌فناوری، چنین تدابیری به‌زودی ناکافی خواهند بود. اگر مشتری با استفاده از هوش مصنوعی یک توالی جدید طراحی کند که در هیچ فهرستی وجود ندارد، نرم‌افزارهای کنونی قادر به تشخیص آن نیستند. 

تحقیقی در دسامبر ۲۰۲۴ نشان داد که نرم‌افزارهای غربالگری چندین شرکت معتبر در شناسایی پروتئین‌های بازطراحی‌شده توسط هوش مصنوعی ناکام مانده‌اند. حتی هنگامی که پژوهشگران الگوریتم‌ها را بهبود دادند، باز هم نسبت موفقیت به ۹۷ درصد محدود ماند. آنان نتیجه گرفتند که نمی‌توان تنها بر غربالگری توالی تکیه کرد، زیرا هوش مصنوعی به‌زودی قادر خواهد شد توالی‌هایی کاملاً جدید و بی‌سابقه در طبیعت خلق کند. 

نقاط ضعف سه‌گانه نظام نظارت کنونی آمریکا 

۱. فهرست ۶۳ عامل بیماری‌زای تحت کنترل ایالات متحده نمی‌تواند پاتوژن‌های جدید حاصل از ابزارهای طراحی زیستی را پوشش دهد. 
۲. تلاش برای گسترش دامنه غربالگری هنوز در مراحل ابتدایی است و با شتاب فناوری همگام نیست، زیرا هیچ اجماع و بانک داده استانداردی برای کنترل وجود ندارد. 
۳. سیاست واگذاری خودتنظیمی به شرکت‌ها موجب تکه‌تکه شدن نظام امنیت زیستی شده و هزینه‌های بالای غربالگری سبب می‌شود برخی شرکت‌ها آن را نادیده بگیرند یا سفارش‌ها را به تأمین‌کنندگان خارجیِ فاقد استانداردهای ایمنی واگذار کنند. 




In the age of AI, access to advanced biotechnologies is becoming dramatically easier—raising urgent concerns about the misuse of artificial intelligence to design novel biological weapons. As highlighted in the U.S. National AI Action Plan (2025) under the Trump administration, powerful AI models like Claude 3.7 Sonnet and bio-design tools such as Evo2 can now assist even small, non-state actors in reconstructing deadly pathogens like horsepox or engineering highly transmissible, lethal influenza strains.

Historically, the high cost and technical complexity of weapons of mass destruction acted as a barrier to misuse. But AI is rapidly lowering these barriers: large language models can bypass knowledge gaps in virology, while DNA synthesis services enable physical reconstruction of AI-designed sequences. Current U.S. biosecurity measures—such as nucleic acid screening against a fixed list of 63 known pathogens—are increasingly obsolete, as AI can generate entirely new, undetectable threat sequences.

A 2024 study revealed that even enhanced screening tools fail to catch AI-engineered proteins in 3% of cases—a critical gap when dealing with high-consequence agents. Moreover, less than 3% of the 370 analyzed bio-AI models include effective safety safeguards. Coupled with fragmented oversight and reliance on industry self-regulation, these weaknesses leave the U.S. vulnerable.

The convergence of AI and synthetic biology demands a new, proactive biosecurity framework—one that moves beyond static watchlists to dynamic, AI-powered threat detection, standardized global screening protocols, and robust governance of dual-use AI models. Without urgent action, the line between scientific breakthrough and biological catastrophe may soon blur beyond control.