<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>国际人工智能治理 - Concordia AI</title>
	<atom:link href="https://concordia-ai.com/zh-hans/research-topics/%E5%9B%BD%E9%99%85%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E6%B2%BB%E7%90%86/feed/" rel="self" type="application/rss+xml" />
	<link>https://concordia-ai.com/zh-hans/</link>
	<description>Guiding the governance of AI for a long and flourishing future</description>
	<lastBuildDate>Mon, 01 Dec 2025 02:26:47 +0000</lastBuildDate>
	<language>zh-Hans</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.5</generator>

<image>
	<url>https://concordia-ai.com/wp-content/uploads/2025/06/cropped-Favicon-32x32.png</url>
	<title>国际人工智能治理 - Concordia AI</title>
	<link>https://concordia-ai.com/zh-hans/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>新加坡人工智能安全全景报告</title>
		<link>https://concordia-ai.com/zh-hans/research/state-of-ai-safety-in-singapore/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=state-of-ai-safety-in-singapore</link>
		
		<dc:creator><![CDATA[Xinyuan Tian]]></dc:creator>
		<pubDate>Fri, 25 Jul 2025 14:53:59 +0000</pubDate>
				<guid isPermaLink="false">https://concordia-ai.com/research/state-of-ai-safety-in-singapore/</guid>

					<description><![CDATA[<p>《新加坡人工智能安全全景报告》（State of AI Safety in Singapore）延续了安远AI&#8230;</p>
<p>The post <a href="https://concordia-ai.com/zh-hans/research/state-of-ai-safety-in-singapore/">新加坡人工智能安全全景报告</a> first appeared on <a href="https://concordia-ai.com/zh-hans/">Concordia AI</a>.</p>]]></description>
										<content:encoded><![CDATA[<p><strong>《新加坡人工智能安全全景报告》（</strong><strong>State of AI Safety in Singapore）</strong>延续了安远AI自2023年起每年发布的《<a href="https://mp.weixin.qq.com/s?__biz=Mzg4NTgxNjEwMg==&amp;mid=2247491997&amp;idx=1&amp;sn=d3cc40a449a4f795032772f6abf6b227&amp;scene=21#wechat_redirect">中国人工智能安全全景报告</a>》系列，是<strong>首份系统梳理新加坡</strong><strong>AI安全生态系统的研究成果，由安远AI新加坡办公室发布。</strong></p>
<p><strong>报告凝练呈现了新加坡在</strong><strong>AI安全治理方面的探索与实践</strong>，强调其虽非前沿模型研发的主导国家，依然在全球AI安全规范的制定中发挥了积极而独特的作用。<strong>报告内容全面覆盖了新加坡多层次的国内治理体系</strong>，包括AI治理框架、针对性立法、国家标准，以及聚焦应用层面的测试与评估机制。同时，<strong>报告也深入分析了新加坡在全球</strong><strong>AI治理体系中的定位</strong>，涵盖其在多边机制、区域倡议与双边合作中的活跃表现。此外，<strong>报告还介绍了新加坡</strong><strong>AI可信市场的体系</strong>，概述本地与国际通用型AI开发者的布局情况，<strong>并绘制出涵盖高校、政府机构与研究单位的</strong><strong>AI安全研究图谱</strong>。本报告基于截至2025年7月的最新进展，<strong>分为五个主要章节，包括：</strong></p>
<ol>
<li>新加坡国内治理路径 (Domestic Approach)</li>
<li>新加坡在国际治理中的角色 (International Approach)</li>
<li>产业生态 (Industry)</li>
<li>技术安全研究（Technical Research)</li>
<li>公众对AI风险的认知 (Public Opinion)</li>
</ol><p>The post <a href="https://concordia-ai.com/zh-hans/research/state-of-ai-safety-in-singapore/">新加坡人工智能安全全景报告</a> first appeared on <a href="https://concordia-ai.com/zh-hans/">Concordia AI</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>国际人工智能安全报告</title>
		<link>https://concordia-ai.com/zh-hans/research/international-ai-safety-report/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=international-ai-safety-report</link>
		
		<dc:creator><![CDATA[eggplant]]></dc:creator>
		<pubDate>Mon, 14 Jul 2025 11:13:21 +0000</pubDate>
				<guid isPermaLink="false">https://concordia-ai.com/research/international-ai-safety-report/</guid>

					<description><![CDATA[<p>2025年1月，全球首份全面整合现有文献、探讨先进人工智能系统风险与能力的《国际人工智能安全报告》正式发布。这&#8230;</p>
<p>The post <a href="https://concordia-ai.com/zh-hans/research/international-ai-safety-report/">国际人工智能安全报告</a> first appeared on <a href="https://concordia-ai.com/zh-hans/">Concordia AI</a>.</p>]]></description>
										<content:encoded><![CDATA[<p><strong>2025</strong><strong>年</strong><strong>1</strong><strong>月，全球首份全面整合现有文献、探讨先进人工智能系统风险与能力的《国际人工智能安全报告》正式发布</strong>。这一重磅报告由图灵奖得主、计算机科学家Yoshua Bengio主持，凝聚了来自30个国家、96位人工智能专家的贡献，<strong>旨在为国际社会建立对先进人工智能风险的共识奠定坚实基础</strong>。</p>
<p>《国际人工智能安全报告》于2025年2月在巴黎人工智能行动峰会上正式呈现，此前的<a href="https://mp.weixin.qq.com/s?__biz=Mzg4NTgxNjEwMg==&amp;mid=2247498116&amp;idx=1&amp;sn=3c4e62119a49d6dd5500bd8b3d75db3d&amp;scene=21#wechat_redirect"><strong>中期版本</strong></a>已于2024年5月在首尔人工智能峰会发布。该报告源自2023年布莱切利人工智能安全峰会的共识，由30个国家共同倡议，联合国、欧盟和经济合作与发展组织(OECD)专家顾问团支持，<strong>真正实现了国际性、独立性与包容性的愿景。</strong></p>
<p><strong>高级顾问团成员包括</strong>清华大学交叉信息科学研究院的<strong>姚期智院士</strong>、清华大学的<strong>张亚勤院士</strong>、<strong>冯雁</strong>（Pascale Fung，入职Meta前担任高级顾问）；中科院自动化所的<strong>曾毅</strong>研究员作为<strong>专家顾问小组成员</strong>；<strong>安远</strong><strong>AI</strong><strong>国际</strong><strong>AI</strong><strong>治理主管吴君仪（</strong><strong>Kwan Yee Ng</strong><strong>）则作为撰稿团队的一员</strong>，为报告的撰写与完善做出了贡献；<strong>安远</strong><strong>AI</strong><strong>为报告整体的内容提供了评论和反馈，也为中文版翻译提供了编辑和修改意见</strong>。</p>
<p>如报告主席Bengio所指出，自布莱切利峰会以来，&#8221;通用型人工智能的能力进一步提升&#8221;，包括&#8221;在编程和科学推理测试中表现出明显更好的性能&#8221;，同时&#8221;许多公司现在正在投资开发通用型人工智能&#8217;智能体&#8217;，它们能够自主规划并采取行动实现目标，几乎不需要或完全不需要人类监督的系统&#8221;。<strong>此份完整报告不仅</strong><strong>&#8220;</strong><strong>提高了所有章节的科学严谨性</strong><strong>&#8220;</strong><strong>，还</strong><strong>&#8220;</strong><strong>增加了对其他主题的讨论，如开放权重模型</strong><strong>&#8220;</strong><strong>，并</strong><strong>&#8220;</strong><strong>重组报告使其更加贴合政策制定者的需要</strong><strong>&#8220;</strong><strong>。</strong></p>
<p>尽管《报告》汇总了科学界当前对通用型人工智能的科学理解与共识，《报告》仍强调，“作为本报告的撰稿专家，我们在有关通用型人工智能的能力、风险和风险缓解措施等方面仍存在诸多分歧，无论大小。但我们认为<strong>本报告对于增强我们对这项技术及其潜在风险的集体理解至关重要</strong>。 我们希望这份报告能够帮助国际社会就通用型人工智能达成<strong>更广泛的共识，更有效地缓解其风险</strong>，从而让人们能够安全地享受其<strong>众多潜在益处</strong>。我们期待着继续这项努力。”</p><p>The post <a href="https://concordia-ai.com/zh-hans/research/international-ai-safety-report/">国际人工智能安全报告</a> first appeared on <a href="https://concordia-ai.com/zh-hans/">Concordia AI</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>人工智能风险国际科学评估的未来</title>
		<link>https://concordia-ai.com/zh-hans/research/the-future-of-international-scientific-assessments-of-ais-risks/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=the-future-of-international-scientific-assessments-of-ais-risks</link>
		
		<dc:creator><![CDATA[eggplant]]></dc:creator>
		<pubDate>Thu, 10 Jul 2025 06:54:03 +0000</pubDate>
				<guid isPermaLink="false">https://concordia-ai.com/research/the-future-of-international-scientific-assessments-of-ais-risks/</guid>

					<description><![CDATA[<p>2024年5月17日，图灵奖得主Yoshua Bengio牵头发布了《先进人工智能安全国际科学报告》中期报告。&#8230;</p>
<p>The post <a href="https://concordia-ai.com/zh-hans/research/the-future-of-international-scientific-assessments-of-ais-risks/">人工智能风险国际科学评估的未来</a> first appeared on <a href="https://concordia-ai.com/zh-hans/">Concordia AI</a>.</p>]]></description>
										<content:encoded><![CDATA[<p>2024年5月17日，图灵奖得主Yoshua Bengio牵头发布了《先进人工智能安全国际科学报告》中期报告。为探讨持续推动人工智能风险国际科学评估的不同机制，牛津大学马丁学院的人工智能治理研究所和卡内基国际和平研究院，于2024年7月召集了一批人工智能与国际关系交叉领域的专家，形成并发布了《人工智能风险国际科学评估的未来》报告。</p>
<p>作为《先进人工智能安全国际科学报告》撰稿团队的一员以及安远AI的代表，吴君仪(Kwan Yee Ng)为这份政策研究报告的形成和撰写作出了贡献。在研讨会上，吴君仪强调了全球包容性的必要以及联合国的重要角色。以下为报告执行摘要的翻译：</p>
<p>管理人工智能风险需要多方的国际协调，这些参与者有着不同的利益、价值观和认知。应对其他全球挑战（如气候变化）的经验表明，建立一个基于科学的、共享的现实图景是实现集体行动的重要第一步。本着这一精神，去年英国政府等28个国家和欧盟，撰写并发布了《先进人工智能安全国际科学报告》。</p>
<p>这份报告在短时间内取得了显著成就，但其范围有限，涉及的利益相关者较少，初期任务的期限较短，目前已经接近尾声。同时，联合国正在着手建立自己的报告机制，但关键参数尚未确定。此外，包括经济合作与发展组织（OECD）、新兴的人工智能安全研究所（AISIs）网络以及全球科学家团体在内的多个机构和实体也在考虑如何为人工智能的全球性理解做出贡献。</p>
<p>如何让各方朝着人工智能风险的国际科学共识这一共同目标合作？尽管各国政府和国际组织正在进行静默外交行动，但围绕这一问题的公开讨论却寥寥无几。此外，这一挑战的难度并未得到充分认识。与气候变化相比，AI的影响更难以衡量和预测，且深受地缘政治紧张局势和国家战略利益的牵连。</p>
<p>为探讨未来发展方向，牛津大学马丁学院的人工智能治理研究所和卡内基国际和平研究院于7月召集了一批人工智能与国际关系交叉领域的专家。在此次讨论中，提出了六大观点：</p>
<ul>
<li>单一的机构或流程无法引领世界就人工智能的风险达成科学共识。</li>
<li>联合国应考虑利用其比较优势，启动一个由成员国深度参与的定期产出科学报告的流程。</li>
<li>一个独立的国际机构应继续产出年度评估报告，主要由独立科学家领导，专注于&#8221;先进&#8221;人工智能系统的风险。</li>
<li>至少有三个可行的候选机构来主导针对前沿人工智能带来的风险的报告，即使它们各有利弊。</li>
<li>应仔细协调两份报告，以增强其互补性，同时又不损害其独特的优势。</li>
<li>在其他进程建立之前，可能有必要继续当前由英国主导的进程。</li>
</ul><p>The post <a href="https://concordia-ai.com/zh-hans/research/the-future-of-international-scientific-assessments-of-ais-risks/">人工智能风险国际科学评估的未来</a> first appeared on <a href="https://concordia-ai.com/zh-hans/">Concordia AI</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>生成式人工智能安全与全球治理报告</title>
		<link>https://concordia-ai.com/zh-hans/research/safety-and-global-governance-of-generative-ai-report/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=safety-and-global-governance-of-generative-ai-report</link>
		
		<dc:creator><![CDATA[eggplant]]></dc:creator>
		<pubDate>Thu, 10 Jul 2025 06:16:04 +0000</pubDate>
				<guid isPermaLink="false">https://concordia-ai.com/research/safety-and-global-governance-of-generative-ai-report/</guid>

					<description><![CDATA[<p>2023年10月18日，习近平主席在第三届“一带一路”国际合作高峰论坛开幕式主旨演讲中宣布中方将提出《全球人工&#8230;</p>
<p>The post <a href="https://concordia-ai.com/zh-hans/research/safety-and-global-governance-of-generative-ai-report/">生成式人工智能安全与全球治理报告</a> first appeared on <a href="https://concordia-ai.com/zh-hans/">Concordia AI</a>.</p>]]></description>
										<content:encoded><![CDATA[<p>2023年10月18日，习近平主席在第三届“一带一路”国际合作高峰论坛开幕式主旨演讲中宣布中方将提出《全球人工智能治理倡议》，围绕人工智能的发展、安全和治理阐述立场主张，表示愿同各方就全球人工智能治理开展沟通交流、务实合作，推动人工智能技术造福全人类。2023年11月1日，中国、美国在内的28个国家和欧盟，共同签署了《布莱切利人工智能安全宣言》，一致认为前沿人工智能技术可能会引发巨大风险，尤其是在网络安全、生物技术和加剧传播虚假信息等方面。2023年12月12日，联合国秘书长古特雷斯组建的高级别人工智能咨询机构发布了《以人为本的人工智能治理》临时报告，提出建立人工智能国际治理机构的指导原则和具体职能。</p>
<p>在这个背景下，世界工程组织联合会创新技术专委会（WFEO-CEIT）和深圳市科学技术协会主办，安远AI担任主编的《生成式人工智能安全与全球治理报告》正式发布。本报告汇集了全球40多位人工智能治理、科技伦理、大模型安全和对齐、通用人工智能风险等领域的政策制定者、企业家、专家学者、工程师等的29篇评论，旨在引起对生成式人工智能发展与安全与治理的关注和进一步的思考，呼吁开展广泛的合作。其中的具体观点并不代表任何主办和主编机构。</p>
<p>按照讨论主题分为以下五章：</p>
<p>一、生成式人工智能的风险与挑战</p>
<p>二、生成式人工智能的全球治理策略</p>
<p>三、人工智能治理助力发展中国家与全球可持续发展</p>
<p>四、工程视角下的人工智能治理</p>
<p>五、企业视角下的人工智能治理</p><p>The post <a href="https://concordia-ai.com/zh-hans/research/safety-and-global-governance-of-generative-ai-report/">生成式人工智能安全与全球治理报告</a> first appeared on <a href="https://concordia-ai.com/zh-hans/">Concordia AI</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>人工智能系列峰会的未来</title>
		<link>https://concordia-ai.com/zh-hans/research/the-future-of-the-ai-summit-series/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=the-future-of-the-ai-summit-series</link>
		
		<dc:creator><![CDATA[eggplant]]></dc:creator>
		<pubDate>Thu, 10 Jul 2025 06:06:54 +0000</pubDate>
				<guid isPermaLink="false">https://concordia-ai.com/research/the-future-of-the-ai-summit-series/</guid>

					<description><![CDATA[<p>自2023年在布莱切利园（Bletchley Park）启动以来，人工智能系列峰会已先后于2024年首尔和20&#8230;</p>
<p>The post <a href="https://concordia-ai.com/zh-hans/research/the-future-of-the-ai-summit-series/">人工智能系列峰会的未来</a> first appeared on <a href="https://concordia-ai.com/zh-hans/">Concordia AI</a>.</p>]]></description>
										<content:encoded><![CDATA[<p>自2023年在布莱切利园（Bletchley Park）启动以来，人工智能系列峰会已先后于2024年首尔和2025年巴黎延续两度召开，正成为推进AI治理领域国际协作的重要舞台。峰会独特的组织形式，每年定期举办会晤磋商的开办节奏，以及敦促各国政府与业界落实具体承诺的能力，共同凝聚出了《布莱切利宣言》《前沿人工智能安全承诺》《关于高级人工智能安全的国际科学报告》等一系列峰会前期成果。</p>
<p>为持续发挥峰会影响力，系列峰会亟需在汲取以往成功经验、务实评估未来困难与挑战的基础上，建立更为制度化的会议架构。本报告对从上述两方面出发，重点剖析峰会的一系列核心设计要素：主办安排、秘书处架构、与会者遴选、议程设置与办会频率。据此形成六项针对性建议，以最大化增强该系列峰会的国际影响。</p>
<p>本文将借鉴现有的国际治理模式，围绕上述要素，就同类峰会日益林立、地缘政治格局演变以及技术快速迭代等挑战，提出切实可行建议。</p>
<p>安远 AI 国际人工智能治理负责人吴君仪（Kwan Yee Ng）与创始人兼首席执行官谢旻希（Brian Tse），任本政策备忘录的主要共同作者。</p><p>The post <a href="https://concordia-ai.com/zh-hans/research/the-future-of-the-ai-summit-series/">人工智能系列峰会的未来</a> first appeared on <a href="https://concordia-ai.com/zh-hans/">Concordia AI</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>2020全球人工智能治理年度观察</title>
		<link>https://concordia-ai.com/zh-hans/research/ai-governance-in-2020/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=ai-governance-in-2020</link>
		
		<dc:creator><![CDATA[eggplant]]></dc:creator>
		<pubDate>Thu, 10 Jul 2025 05:48:24 +0000</pubDate>
				<guid isPermaLink="false">https://concordia-ai.com/research/ai-governance-in-2020/</guid>

					<description><![CDATA[<p>2020年的新冠疫情表明，全球性灾难是一种切实存在的可能性，应当警示人们学会未雨绸缪，加强合作，提升人类社群的&#8230;</p>
<p>The post <a href="https://concordia-ai.com/zh-hans/research/ai-governance-in-2020/">2020全球人工智能治理年度观察</a> first appeared on <a href="https://concordia-ai.com/zh-hans/">Concordia AI</a>.</p>]]></description>
										<content:encoded><![CDATA[<p>2020年的新冠疫情表明，全球性灾难是一种切实存在的可能性，应当警示人们学会未雨绸缪，加强合作，提升人类社群的整体韧性。在未来的数十年里，人工智能的治理可能成为全球最重要的议题之一。我们相信，全球化、跨学科的洞见对于引导人工智能朝向共善方向发展至关重要。</p>
<p>本报告由来自47家机构的52位专家共同参与撰写，涵盖人工智能科学家、学者、产业界代表、政策专家等，广泛囊括了美国、欧洲和亚洲等多个地区的发展与视角，后续升级成为综合性著作《人工智能治理的全球视角（第一卷）》。</p>
<p>报告详情请见：<a href="https://www.aigovernancereview.com/">https://www.aigovernancereview.com/</a></p><p>The post <a href="https://concordia-ai.com/zh-hans/research/ai-governance-in-2020/">2020全球人工智能治理年度观察</a> first appeared on <a href="https://concordia-ai.com/zh-hans/">Concordia AI</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>国家级人工智能安全研究所及其国际网络——为何建立、如何运作及未来挑战</title>
		<link>https://concordia-ai.com/zh-hans/research/national-ai-safety-institutes-and-their-global-networks-why-they-were-established-how-they-operate-and-future-challenges-cn/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=national-ai-safety-institutes-and-their-global-networks-why-they-were-established-how-they-operate-and-future-challenges-cn</link>
		
		<dc:creator><![CDATA[eggplant]]></dc:creator>
		<pubDate>Sun, 15 Jun 2025 09:50:43 +0000</pubDate>
				<guid isPermaLink="false">https://concordia-ai.com/research/national-ai-safety-institutes-and-their-global-networks-why-they-were-established-how-they-operate-and-future-challenges-cn/</guid>

					<description><![CDATA[<p>自英国和美国率先成立国家级人工智能安全研究所(AI Safety Institute, 以下简称AISI)以来&#8230;</p>
<p>The post <a href="https://concordia-ai.com/zh-hans/research/national-ai-safety-institutes-and-their-global-networks-why-they-were-established-how-they-operate-and-future-challenges-cn/">国家级人工智能安全研究所及其国际网络——为何建立、如何运作及未来挑战</a> first appeared on <a href="https://concordia-ai.com/zh-hans/">Concordia AI</a>.</p>]]></description>
										<content:encoded><![CDATA[<p>自英国和美国率先成立国家级人工智能安全研究所(AI Safety Institute, 以下简称AISI)以来，安远AI始终密切关注和分析其演进过程。本文分析了当前多个国家级人工智能安全研究所及其国际网络的设立背景、进展、对比和挑战，旨在为中国在全球人工智能治理中的角色定位与政策制定提供参考。</p>
<ol>
<li><strong>背景</strong></li>
</ol>
<p>GPT-4等前沿人工智能展现出强大的涌现能力，推动了多模态大模型、自主智能体、科学发现智能体和具身智能等众多技术方向，在多个领域已逼近甚至超越人类水平，但也引发了新的安全挑战。两届全球人工智能安全峰会先后发布的《布莱切利宣言》和《首尔宣言》推动了国家级人工智能安全研究所的设立，以应对技术风险并加强全球治理。</p>
<ol start="2">
<li><strong>进展</strong></li>
</ol>
<p>英国和美国分别在2023年首届全球人工智能安全峰会率先设立人工智能安全研究所，随后日本、新加坡、加拿大、韩国、法国等国家以及欧盟相继跟进，同时美国积极推动人工智能安全研究所国际网络的发展。此类机构以人工智能安全评测、人工智能安全研究、促进信息交流或推进标准制定为核心职能，已初步建立双边和多边的协作。</p>
<ol start="3">
<li><strong>对比</strong></li>
</ol>
<p>不同国家的国家级人工智能安全研究所在机构属性、职能定位、研究重点及国际协作等方面呈现多样性，在详细对比已官宣成立的8家国家级人工智能安全研究所的上述信息的基础上，我们重点就领先的人工智能安全研究所进行了案例分析：</p>
<ul>
<li>英国人工智能安全研究所：充足的政府资金支持，吸纳大量技术人才，希望引领前沿人工智能安全评测和研究；得到OpenAI、DeepMind、Anthropic的部署前评测授权；参与全球人工智能安全峰会的筹办；已开源评测框架Inspect，为测试人员提供了评估各类模型特定能力的工具。</li>
<li>美国人工智能安全研究所：关注前沿人工智能风险，并涵盖更广泛的风险类型；依托美国国家标准与技术研究院和合作网络，成立了人工智能安全研究联盟；获得OpenAI和Anthropic新模型发布之前和之后的访问权限。初期更关注国内安全问题，后通过与英国等人工智能安全研究所合作并宣布建立人工智能安全研究所国际网络后，越来越关注全球合作，旨在协调各方制定前沿人工智能的测量科学、自愿指南和严格测试标准。然而，特朗普当选新总统后，其全球合作前景存疑。</li>
<li>其他的国家级人工智能安全研究所则结合自身需求，在标准化、安全研发、执行监管等方面各有侧重。</li>
</ul>
<ol start="4">
<li><strong>挑战</strong></li>
</ol>
<p>尽管人工智能安全研究所及其国际网络在安全评测、安全研究和国际合作中具有重要作用，但未来仍需在模型访问与评测权限、信息共享与安全实践、标准制定与监管框架、资源差异与合作平衡、全球包容性与国际协调方面进行改进，以应对人工智能技术为全球治理带来的复杂挑战。</p><p>The post <a href="https://concordia-ai.com/zh-hans/research/national-ai-safety-institutes-and-their-global-networks-why-they-were-established-how-they-operate-and-future-challenges-cn/">国家级人工智能安全研究所及其国际网络——为何建立、如何运作及未来挑战</a> first appeared on <a href="https://concordia-ai.com/zh-hans/">Concordia AI</a>.</p>]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
