导读
2025年7月,AIxBio全球论坛发布了《关于人工智能与生命科学融合的生物安全风险的声明》(Statement on Biosecurity Risks at the Convergence of AI and the Life Sciences)。这份声明已得到涵盖AI行业开发者、生命科学学者和人工智能安全研究者在内,超过40位专家的联合签署支持,包括中国科学院院士姚期智、图灵奖得主Yoshua Bengio、合成生物学先驱George Church、新西兰前总理Helen Clark、天津大学生物安全战略研究中心主任张卫文、安远AI创始人兼CEO谢旻希等。
声明指出AI与生命科学融合虽能极大促进公共健康与医学进步,但也带来降低生物风险门槛、提升危害上限,并削弱防御体系的严重风险,呼吁各国政府、产业界、学术界与资助方共同建立技术护栏和治理机制,投资负责任研发并推动国际合作,以确保该技术安全可控、造福社会。这份声明在非营利组织核威胁倡议组织(NTI)的官方网站上首发。

人工智能与生命科学融合的生物安全风险的声明
人工智能的迅猛进步及其与生命科学的融合,赋予了其巨大的造福社会的潜力,既能通过加快新型疫苗和疗法的研发改善公共卫生,也可提高人们快速发现新发传染病的能力,这些技术进步有望在全球范围内减轻疾病负担,促进经济发展。与此同时,因AI的广泛应用而成为可能的生命系统工程能力(下称“AIxBio能力”)迅速提高,也加剧了有害生物制剂意外流出或蓄意投放的风险,甚至不乏引起全球性生物灾难、波及全世界人口的危险情形。
随着AIxBio能力持续发展,利用AI造成生物灾害的门槛可能进一步降低。不法分子或将更容易获取必要的知识与相关信息支持,更有效地设计、构建并投放有害生物制剂。
与此同时,AIxBio能力还可能为这类行为“提高上限”,扩大生物灾难的潜在规模。AI加持下的生物学工具,可能设计开发出超越自然界或当前人类科学水平(例如人群杀伤力更强或传播力更高)的病原体。尽管目前还无法为这种AI滥用的具体发展进程下断言,但如果缺乏充分的安全防范举措,这类情形可能会在未来短短几年内就会成为现实。
在AI近期取得的技术进展中,有一项与此紧密相关——AI模型已经能设计新的生物分子,例如毒素、存在于病原体中的蛋白以及可与人体重要靶点结合的蛋白,AIxBio能力正快速提升。未来,AI或将支持更复杂的生物系统的设计,例如开发一组生物分子协同执行更复杂的功能(细胞信号传导、材料的酶促合成等),甚至打造出完整的病毒或细菌的基因组序列。
诸如此类的技术进展,可能使得别有用心之人设计满足特定目的的生物制剂变得更加容易。尽管眼下想要基于AI的设计去开发病毒或构建生物制剂并非易事,但实现这些的技术门槛正逐渐降低。
一种可能降低此类不法行为门槛、影响风险格局的新兴技术,是专门针对科学发现及开发而优化的AI智能体。这类智能体可以自主连续执行多步任务,达成复杂目标,而且可用于生命科学领域。针对生命科学优化的AI智能体,在理解科学文献、提出研究假设、设计实验方案和解释数据等方面的能力正突飞猛进,并开始与生物科研设备及先进实验室的机器人对接。如若缺乏审慎监管,这些AI智能体很可能追求超出人类期望的科学进步目标,造成预期之外的生物安全风险,不法分子也可能利用这些AI智能体协助开发有害生物制剂。
另一个引人担忧的问题是,AIxBio能力可能削弱生物安保防御措施的有效性,例如规避传染病监测系统、对抗医疗安全防范措施、绕过核酸合成筛查等等。全球生物安全态势一经冲击,可能扩大使用生物武器的空间,为生物攻击打开可乘之机。
尽管未来AI × 生命科学领域的进展难以准确预测,但这一领域的快速发展,要求我们未雨绸缪,前瞻性地为这类新兴风险做好准备。考虑到上面罗列的种种风险,可能出现的危险情形是:经验老道的不法分子利用经AI加持的生物工具,设计、生产并投放性质独特、危害性超过所有自然界病原体的生物制剂,最终引发一场破坏力堪比新冠疫情的波及全球的严重生物事件。
AIxBio能力是一把双刃剑,既有着造福全世界的巨大潜力,也有着造成重大危害的风险隐患,亟需引起各方重视,开展有多利益相关方参与的国际协作和果断行动。AIxBio能力的持续进步,意味着追踪技术发展、理解相关生物安全风险、制定有效的风险防范措施至关重要。我们呼吁各国政府、产业界、学术界、慈善界与民间社会通力合作,通过治理机制、防范举措及其他手段,在释放人工智能所具备的巨大积极潜力的同时,切实保障人工智能安全。
关于AIxBio全球论坛
AIxBio全球论坛(AIxBio Global Forum)是一个面向国际专家、政策制定者及相关利益相关方的平台,旨在识别并降低人工智能与生命科学交叉带来的生物安全风险。
核心目标:
- 形成对AI相关生物安全风险的共同理解。
- 支持开发和推广工具与实践,在发挥AIxBio技术积极作用的同时防范风险。
- 推动国家和全球层面的治理机制建设。
主要工作机制:
- 汇聚来自AI模型研发机构、生物安全与AI安全社群以及生命科学研究群体的多元专家和政策制定者。
- 设立技术工作组,识别最佳实践并制定技术防护措施,防止AIxBio技术被滥用。
- 制定研究议程,绘制关键开放问题和机遇的全景图。
- 通过分析、声明与政策建议,引导国家与全球治理战略,确保技术造福人类。
现有结构:
- 论坛目前设有两个技术工作组:1)生物设计工具,2)前瞻扫描、风险评估与评测。
- 工作组产出将提交论坛整体讨论,确保其结论兼具国际代表性与可操作性,从而为政策与实践提供有力指导。
关于安远AI的人工智能 x 生物安全探索与实践
安远AI长期关注前沿AI风险管理,人工智能 x 生物安全是其中的重要方向之一,我们陆续开展的工作包括但不限于:
- 与天津大学生物安全战略研究中心联合发布《人工智能 × 生命科学的负责任创新》报告
- 与上海人工智能实验室联合发布《前沿人工智能风险管理框架》,并配以《风险评测实践报告》,涉及生物风险
- 与天津大学生物安全战略研究中心联合举办“人工智能与生物风险融合研讨会“
- 受邀参加合成生物技术全国重点实验室举办的“生物安全闭门研讨会”
- 受邀参与在外交学院举办的“DNA合成筛查技术和政策闭门研讨会”
- 受邀参与《禁止生物武器公约》工作组第六次会议相关边会
我们希望为人工智能、生命科学与生物安全等领域之间建立系统性对话提供助力。
