
نویسندگان: جورجیا آدامسن، پژوهشگر مؤسسه مطالعات پیشرو؛ گرگوری آلن، مشاور ارشد مرکز واردوانی هوش مصنوعی وابسته به اندیشکده راهبردی و مطالعات بینالمللی (CSIS)
ترجمه و تلخیص به چینی: لی شو
ترجمه به فارسی مجله جنوب جهانی
«با یاری هوش مصنوعی، چشمانداز پژوهش در حوزه زیستشناسی تقریباً نامحدود است… اما در عین حال، افراد ناپاک نیت نیز میتوانند از همین فناوری برای ساخت سلاحهای زیستی جدید بهره ببرند.»
— از «برنامه اقدام ملی هوش مصنوعی ایالات متحده» منتشرشده در سال ۲۰۲۵ در دوران دولت ترامپ
برای مدت طولانی، هالیوود پیوسته آثاری درباره دانشمندان دیوانهای تولید کرده که با استفاده از فناوریهای اهریمنی، فاجعهای جهانی میآفرینند. اما اکنون، در عصر زیستفناوری مبتنی بر هوش مصنوعی، این سناریو دیگر صرفاً تخیل نیست و ممکن است بهزودی به واقعیت تبدیل شود.
از منظر تاریخی، دلیل توانمندی ایالات متحده در حفظ امنیت ملی برای دورهای طولانی آن بود که هزینه و پیچیدگی تولید سلاحهای کشتار جمعی بسیار بالا بود. به عنوان مثال، ساخت و استقرار بمب اتمی مستلزم دانش تخصصی عظیم و سرمایه کلان است، امری که فراتر از توان مجرمان عادی محسوب میشود. حتی کشوری مانند عراقِ دوران صدام حسین که از منابع قابل توجهی برخوردار بود، هرگز نتوانست به فناوری هستهای دست یابد.
اما با گذر زمان، آستانه ورود به عرصه تولید برخی از انواع سلاحهای کشتار جمعی، بهویژه سلاحهای زیستی، به شکل چشمگیری کاهش یافت. امروزه چالش پیشروی نهادهای رسمی ایالات متحده آن است که چگونه باید میان حفظ امنیت زیستی و تسریع رشد زیستفناوری مبتنی بر هوش مصنوعی توازن برقرار کنند. در «برنامه اقدام ملی هوش مصنوعی» که دولت ترامپ در ژوئیه ۲۰۲۵ منتشر کرد، بر ضرورت تقویت امنیت زیستی آمریکا تأکید شده است. هرچند جزئیات مربوط به پیشنهادهایی همچون تشدید غربالگری سنتز اسید نوکلئیک و توسعه توان ارزیابی دولتیِ هوش مصنوعی هنوز تبیین نشده، اما این سند را میتوان سرآغازی مناسب برای پایهگذاری سامانه دفاع زیستی ایالات متحده در عصر هوش مصنوعی دانست.
عصر کاهش مانع تولید سلاحهای زیستی
در طی حدود یک قرن گذشته، هزینه مالی و نیازمندیهای فنی جهت توسعه سلاحهای زیستی بهطرز چشمگیری کاسته شده است. در جریان جنگ جهانی دوم، برنامه سلاحهای زیستی ایالات متحده حدود ۴۵۰۰ نفر از جمله تعداد زیادی متخصص فنی را به کار گرفت. بودجه کل آن ۶۰ میلیون دلار بود، یعنی تقریباً سه درصد از هزینههای «پروژه منهتن» (برنامه ارتش آمریکا در سال ۱۹۴۲ برای تولید بمب اتم که بیش از ۱۰۰هزار نفر در آن مشارکت داشتند و سه سال طول کشید و دو میلیارد دلار هزینه در برداشت). برنامه جنگ زیستی ژاپن نیز در همان دوران حدود ۳۰۰۰ نفر، از جمله صدها پزشک برجسته این کشور را به خدمت گرفته بود.
در دهه ۱۹۹۰، گروه تروریستی ژاپنی «اوم شینریکیو» با کمتر از ۲۰ عضو فنی بارها کوشید از باکتری بوتولیسم و باسیل آنتراکس برای اجرای حملات تروریستی استفاده کند، که خوشبختانه موفق نشد.
در سال ۲۰۱۷، دو دانشمند کانادایی تنها با صرف ۱۰۰هزار دلار توانستند ویروس آبله اسبیِ منقرضشده را بازسازی کنند. آنان برای این کار، مراحل مقدماتی را به آزمایشگاههای تجاری سنتز DNA واگذار کردند؛ آزمایشگاههایی که پس از تولید قطعات ژنتیکی، آنها را از طریق پست ارسال میکردند. سپس پژوهشگران در آزمایشگاه خود DNAها را بههم پیوستند و با استفاده از ویروسی کمکی، آن را به درون سلول تزریق کردند و در نهایت، ویروس بازسازیشده را بهدست آوردند.
هدف از این پژوهش بهبود فرایند تولید واکسن و درمان سرطان عنوان شد، اما حادثه یادشده نگرانی عمیقی برانگیخت، زیرا نشان داد حتی گروه کوچکی از پژوهشگران با دانش متوسط میتوانند شاید ظرف چند ماه، ویروس آبله را احیا کنند.
هوش مصنوعی: گسترشدهنده سلاحهای زیستی؟
رشد سریع هوش مصنوعی به این معناست که امروز تنها چند نفر قادرند به کمک آن سلاحهای زیستی بسازند. در ۵ مارس ۲۰۲۵، اریک اشمیت، مدیرعامل پیشین گوگل، به همراه دیگران در مقالهای هشدار داد که هوش مصنوعی میتواند گامبهگام مجرمان را در طراحی پاتوژنهای مرگبار، تهیه مواد و بهینهسازی روشهای انتشار آنها یاری کند. داریو آمودی، مدیرعامل آزمایشگاه هوش مصنوعی Anthropic نیز این ارزیابی را تأیید کرد و در آغاز همان سال تصریح نمود که مدل تازه این شرکت، «Claude 3.7 Sonnet»، در آزمایشها تواناییهایی از خود نشان داده که «ممکن است در فرآیند توسعه سلاحهای زیستی قابل بهرهبرداری باشد» و این امر بسیار نگرانکننده است.
هوش مصنوعی اکنون میتواند در عمل به مجرمان یاری رساند تا سلاحهای زیستی تولید کنند. نخست اینکه بسیاری از آزمایشگاههای پیشروی هوش مصنوعی هشدار دادهاند که مدلهای زبانی تجاری مشهور تا حد زیادی موانع دانشی در زمینه طراحی حملات زیستی را برمیدارند. دوم اینکه ابزارهای طراحی زیستی نیز میتوانند در خلق پاتوژنهای جدید به کار گرفته شوند.
(۱) مدلهای زبانی بزرگ و کاهش مانع اطلاعاتی
در فوریه ۲۰۲۵، شرکت OpenAI در گزارش ارزیابی ایمنی محصول «Deep Research» اعلام کرد: «مدل ما به مرحلهای نزدیک شده است که افراد مبتدی میتوانند با کمک آن حملات زیستی طراحی کنند.» کمتر از یک هفته بعد، پژوهشی تازه نشان داد که مدل «o3» این شرکت در آزمونی درباره عیبیابی پروتکلهای پیچیده آزمایشگاهی ویروسشناسی، از ۹۴ درصد از ویروسشناسان حرفهای عملکرد بهتری دارد.
OpenAI تنها آزمایشگاهی نیست که چنین پیشرفتی داشته است. ارزیابی شرکت Anthropic نیز نشان داد مدل Claude 3.7 Sonnet میتواند کمکهای واقعی به افراد در طراحی سلاحهای زیستی ارائه دهد. نتایج این ارزیابیها از چندین مرکز برتر جهان نشان میدهد که مدلهای زبانی در حال نزدیک شدن یا حتی عبور از آستانهای هستند که فراتر از سطح ایمنی تلقی میشود و اکنون قادرند اطلاعاتی همسنگ یا فراتر از دانش کارشناسان انسانی در اختیار کاربران بگذارند.
(۲) ابزارهای طراحی زیستی و تولید پاتوژنهای پرخطر
در ۱۹ فوریه ۲۰۲۵، بزرگترین مدل پایه در حوزه زیستهوش مصنوعی با نام Evo2 معرفی شد. این مدل با استفاده از دادههایی شامل بیش از ۱۲۸هزار ژنوم از انسان، حیوانات، گیاهان، باکتریها و حتی ویروسها آموزش یافت. Evo2 قادر است توالیهای DNA را شناسایی و ژنوم موجودات جدیدی را طراحی کند. پژوهشگران میتوانند با وارد کردن رشتههای DNA واقعی یا مجازی، رشد بالقوه آن موجود را شبیهسازی کنند.
اما این فناوری خطرآفرین نیز هست. تبهکاران میتوانند از چنین ابزارهایی برای خلق سویههای جدید آنفلوانزای فوقالعاده مرگبار و مسری استفاده کنند.
بر اساس ارزیابی مؤسسه غیرانتفاعی Epoch AI، منابع محاسباتی مورد استفاده در آموزش ابزارهای برتر زیستی بین سالهای ۲۰۱۷ تا ۲۰۲۱ بهطور میانگین سالانه ۲۱ برابر افزایش یافته است، یعنی تقریباً هر سه ماه دو برابر شده. حجم دادههای آموزشی آنها نیز در همین مدت هر سال ۱۰ برابر افزایش داشته است. هرچند این رشد اکنون اندکی کندتر شده، اما سرعت پیشرفت همچنان نگرانکننده است.
چگونگی افزایش خطرات زیستی با پیشرفت هوش مصنوعی
در حال حاضر، ساخت سلاحهای زیستی هنوز با موانع فنی متعدد روبهروست؛ انتخاب گونه مناسب ویروس یا باکتری، کنترل سرعت تکثیر و جهش، و حفظ ویژگیهای مورد انتظار در حمله—all از جمله چالشها هستند. دولتها میباید نظامهای پدافند چندلایه را در برابر هر گام از مسیر ایجاد سلاحهای زیستی مستقر کنند—از کنترل پاسخ مدلهای هوش مصنوعی گرفته تا غربالگری ژنتیکی یا تمهیدات فیزیکی و مدیریتی.
اما با پیشرفت مداوم هوش مصنوعی، برخی از این لایههای حفاظتی ممکن است کارایی خود را از دست بدهند. در ادامه، دو حوزه آسیبپذیر اصلی—امنیت ابزارهای طراحی زیستی و فرایند غربالگری اسید نوکلئیک—بررسی میشود.
الف) سازوکار امنیتی ابزارهای طراحی زیستی: شکافهای موجود در سری مدلهای Evo
تیم توسعه Evo2 کوشیده است تا دادههای آموزشی مدل عاری از ژنومهای پاتوژنهای مسری باشد. اما اگر روزی مدلهایی مانند Evo2 بتوانند حتی بهطور ناخواسته توالی ژنتیکی تازهای با قابلیت بیماریزایی طراحی کنند، توسعهدهندگان دیگر کنترلی بر کاربردهای خطرناک آن نخواهند داشت.
در سال ۲۰۲۴ نیز در نمونهای مشابه، دادههای حذفشده از نسخه پیشین مدل (Evo1) مجدداً از سوی پژوهشگران بازافزایی شد. به این ترتیب، هرچند نسخه اصلی فاقد دادههای ویروسی مضر بود، ولی کاربران توانستند با صرف هزینهای اندک، آن را تنظیم مجدد کنند و ظرفیتهای خطرناک را بازگردانند.
از میان حدود ۳۷۰ مدل زیستی تحلیلشده، کمتر از سه درصد دارای تدابیر ایمنی مؤثر بودند. ازاینرو حتی مدلهای پیشرفته مانند Evo2 نیز نمیتوانند مدافع قابل اعتمادی در برابر خطرات زیستی باشند.
ب) غربالگری اسید نوکلئیک: محدودیتهای فهرستهای موجود
در فرایند ساخت سلاح زیستی، حتی در صورت طراحی یک پاتوژن جدید، مجرمان برای تولید فیزیکی DNA به شرکتهای سنتز ژن مراجعه میکنند. این شرکتها اکنون میتوانند رشتههای سفارشی DNA یا RNA را ظرف چند روز و با هزینهای ناچیز تولید و ارسال کنند.
دولت آمریکا از شرکتها خواسته است تا تمامی سفارشها را از نظر وجود توالیهای خطرناک بررسی کنند. در سال ۲۰۲۳، وزارت بهداشت و خدمات انسانی این کشور دستورالعمل تازهای صادر کرد که شرکتها را ملزم به تطبیق تمامی توالیهای DNA یا RNA با فهرست رسمی عوامل بیماریزا و همچنین ردیابی کاربران نهایی میکند.
اما با ادغام سریع هوش مصنوعی و زیستفناوری، چنین تدابیری بهزودی ناکافی خواهند بود. اگر مشتری با استفاده از هوش مصنوعی یک توالی جدید طراحی کند که در هیچ فهرستی وجود ندارد، نرمافزارهای کنونی قادر به تشخیص آن نیستند.
تحقیقی در دسامبر ۲۰۲۴ نشان داد که نرمافزارهای غربالگری چندین شرکت معتبر در شناسایی پروتئینهای بازطراحیشده توسط هوش مصنوعی ناکام ماندهاند. حتی هنگامی که پژوهشگران الگوریتمها را بهبود دادند، باز هم نسبت موفقیت به ۹۷ درصد محدود ماند. آنان نتیجه گرفتند که نمیتوان تنها بر غربالگری توالی تکیه کرد، زیرا هوش مصنوعی بهزودی قادر خواهد شد توالیهایی کاملاً جدید و بیسابقه در طبیعت خلق کند.
نقاط ضعف سهگانه نظام نظارت کنونی آمریکا
۱. فهرست ۶۳ عامل بیماریزای تحت کنترل ایالات متحده نمیتواند پاتوژنهای جدید حاصل از ابزارهای طراحی زیستی را پوشش دهد.
۲. تلاش برای گسترش دامنه غربالگری هنوز در مراحل ابتدایی است و با شتاب فناوری همگام نیست، زیرا هیچ اجماع و بانک داده استانداردی برای کنترل وجود ندارد.
۳. سیاست واگذاری خودتنظیمی به شرکتها موجب تکهتکه شدن نظام امنیت زیستی شده و هزینههای بالای غربالگری سبب میشود برخی شرکتها آن را نادیده بگیرند یا سفارشها را به تأمینکنندگان خارجیِ فاقد استانداردهای ایمنی واگذار کنند.
In the age of AI, access to advanced biotechnologies is becoming dramatically easier—raising urgent concerns about the misuse of artificial intelligence to design novel biological weapons. As highlighted in the U.S. National AI Action Plan (2025) under the Trump administration, powerful AI models like Claude 3.7 Sonnet and bio-design tools such as Evo2 can now assist even small, non-state actors in reconstructing deadly pathogens like horsepox or engineering highly transmissible, lethal influenza strains.
Historically, the high cost and technical complexity of weapons of mass destruction acted as a barrier to misuse. But AI is rapidly lowering these barriers: large language models can bypass knowledge gaps in virology, while DNA synthesis services enable physical reconstruction of AI-designed sequences. Current U.S. biosecurity measures—such as nucleic acid screening against a fixed list of 63 known pathogens—are increasingly obsolete, as AI can generate entirely new, undetectable threat sequences.
A 2024 study revealed that even enhanced screening tools fail to catch AI-engineered proteins in 3% of cases—a critical gap when dealing with high-consequence agents. Moreover, less than 3% of the 370 analyzed bio-AI models include effective safety safeguards. Coupled with fragmented oversight and reliance on industry self-regulation, these weaknesses leave the U.S. vulnerable.
The convergence of AI and synthetic biology demands a new, proactive biosecurity framework—one that moves beyond static watchlists to dynamic, AI-powered threat detection, standardized global screening protocols, and robust governance of dual-use AI models. Without urgent action, the line between scientific breakthrough and biological catastrophe may soon blur beyond control.

