自2017年《新一代人工智能发展规划》以来,中国人工智能取得飞速发展,已跻身主要参与国之列。中国在制定生成式人工智能法规、在联合国倡议人工智能国际合作、开展人工智能安全技术研究等方面,发挥重要作用,对全球人工智能发展、安全和治理产生深远影响。但国际社会对中国在人工智能安全方面的立场和举措的了解仍较有限。本报告旨在通过分析中国国内治理的发展、中国对国际治理的立场、安全技术研究、专家对人工智能风险的观点、科研机构和企业治理以及公众对人工智能的态度,力求向世界展示真实、立体、全面的中国人工智能安全现状,为进一步国际交流合作奠定基础。
第一,中国已制定出一系列治理措施,为今后应对未来更高级人工智能的潜在风险打下基础。在国家宏观治理层面,政府重视加强人工智能发展的潜在风险研判和防范,确保人工智能安全、可靠、可控。相关部委已建立算法备案制度、深度合成内容管理规定等法规。《生成式人工智能服务管理暂行办法》使中国成为全球首个落地生成式人工智能监管的主要国家。十部门联合印发《科技伦理审查办法(试行)》,列出了需要开展伦理审查复核的科技活动清单。人工智能法草案已被列入《国务院2023年度立法工作计划》。
第二,在国际舞台上,中国大力将人工智能安全和治理定位为国际合作新领域。《全球安全倡议》将加强人工智能等新兴科技领域国际安全治理列为20项重点合作方向之一。中国在金砖国家领导人第十五次会晤上指出金砖国家已经同意启动人工智能研究组工作,拓展合作,共同做好风险防范。在第三届“一带一路”国际合作高峰论坛上,中国提出《全球人工智能治理倡议》,呼吁确保人工智能始终处于人类控制之下,共同防范人工智能技术的恶用滥用。
第三,在安全技术研究方面,多家人工智能科研机构正在从不同角度进行研究。多家大模型科研机构采用人类反馈强化学习等技术开展对齐研究。中国在鲁棒性研究方面进行了具有国际影响力的工作。部分研究团队对中国大型语言模型进行了安全性评测。目前的安全评测尚未考量到更前沿的潜在危险能力。此外,部分研发机构从计算机视觉角度,对模型可解释性进行了广泛探索。至少12家知名研发机构在过去一年发表的人工智能安全预印本论文数量显著增加。
第四,中国专家学者也在积极探讨可能的人工智能风险与应对之策,推动社会各界提高对人工智能安全的认识。早在2016年,少数专家学者就曾对人工智能可能带来的生存风险表示担忧,但当时未得到广泛关注。2020年,GPT-3的发布促使更多专家学者加入讨论。2023年ChatGPT发布后,人工智能安全与风险已经成为热门辩论话题,中国多位院士和领军科学家关注未来人工智能失控可能带来的生存风险。多位学者强调以具有中国特色的“底线思维”管控人工智能风险。
第五,中国科研机构和企业在前沿人工智能风险管理方面主要采取配合监管的态度。从2018年开始,许多机构陆续发布了人工智能伦理原则,但目前还没有具体针对前沿大模型的安全性原则。近日,中国人工智能产业发展联盟表达了对价值对齐问题的关注。个别科研机构概述了其发布的大语言模型采取的安全措施。这些机构公开表示进行的评估主要集中在真实性和有害内容方面。
第六,目前没有足够数据反映中国公众对前沿人工智能的看法。现有证据显示,中国公众普遍认为人工智能发展的利大于弊。一项调查表明,公众认为即使通用人工智能可能造成生存风险,但风险可控,因此仍应发展通用人工智能。但现有的公众舆论调查参与度有限,问题设计的精确度也有待提高,因此今后需进一步了解中国公众对前沿人工智能风险的看法。

