Nature 杂志:全球应该积极响应中国的 AI 治理主张

Source

12月11日,《自然》发表了题为《世界应该积极参与中国的AI监管推动》(The world should engage with China's AI-regulation push)的文章,文章直接点名中国在AI监管上的主导地位,并呼吁全球各国积极参与中国提出的“世界人工智能合作组织”(WAICO)倡议。这不仅是对中国在AI治理方面推动力的认可,更是对全球合作思维的呼唤。

AI的进步与风险并存,全球监管框架的缺失是亟待解决的问题。这一倡议,能否成为未来全球AI监管的引领者?《自然》这篇文章,正是从这一角度出发,提出了全球AI治理必须超越地缘政治竞争、实现国际合作的核心观点。

在文章中,《自然》不仅详细分析了各国在AI监管方面的差异,还为中国提出的AI治理框架给予了高度评价,特别是在全球性监管和跨国合作方面的推动。

以下是这篇社论全文内容,经简单的编辑整理,分享给大家:

原文链接:https://www.nature.com/articles/d41586-025-03972-y
原文链接:https://www.nature.com/articles/d41586-025-03972-y

全球AI监管面临领导力真空

过去几年,围绕人工智能发展和应用的国际对话、白皮书和咨询小组建议层出不穷。然而,当需要将这些讨论转化为全球性规则,以最大化AI的益处并最小化其危害时,却出现了领导力真空。

正如《自然》上周报道的那样(Nature https://doi.org/qhbv; 2025),有一个国家正在推进改变这一现状的计划。中国提议建立一个全球性机构来协调AI监管,该机构被称为"世界人工智能合作组织"(World Artificial Intelligence Cooperation Organization, WAICO)。建立这样的机构符合所有国家的利益,世界各国政府都应该参与其中。

AI模型拥有惊人的能力,可以极大地推动科学发展和促进经济增长。但它们并不完全理解世界,可能以不可预测的方式失效。它们可能造成多种危害,包括加剧不平等、助长犯罪活动以及协助传播错误信息和虚假信息。一些知名研究人员甚至认为,超级智能AI有朝一日可能摧毁人类。

各国监管路径的巨大差异

美国:企业自律与监管缺失

迄今为止,在开发AI的"疯狂竞赛"中,这些风险并未得到应有的重视——许多人担心这场竞赛已经制造了一个即将破裂的经济泡沫。美国是许多最强大、使用最广泛的AI模型制造商的所在地,但该国没有国家级的AI法规,只有零散的州级法律。总体而言,美国的公司被期望自我监管并建立自己的内部防护措施——同时还要处于无情的竞争之中。

根据位于加利福尼亚州坎贝尔的未来生命研究所(Future of Life Institute)12月3日发布的大型科技公司安全与风险政策最新评估——AI安全指数,按A到F的评分标准,没有任何一家美国公司的得分高于C+详见go.nature.com/48ikyhv)。然而就在上个月,美国总统唐纳德·特朗普启动了一项名为"创世纪任务"(Genesis Mission)的倡议,该倡议将为开发AI模型的公司和研究人员提供前所未有的政府数据集访问权限。该政府将其与阿波罗登月计划相提并论。

欧盟:立法与执行的挑战

在欧洲联盟,去年推出的《人工智能法案》要求最强大的先进AI系统的制造商加强对其模型所构成威胁的分析。该法案正在分阶段实施,目前尚不清楚对不合规行为处以巨额罚款的威胁会产生什么效果。媒体报道表明,企业正在向欧盟施压,要求其放松法律限制。

中国:系统性监管的加速推进

与此同时,中国走出了自己的道路。其政府正在努力将AI嵌入整个社会,从地方政府聊天机器人到能够加速生产的工厂机器人。但其监管机构也一直在推动AI输出的可追溯性和公司问责制(值得注意的是,中国AI公司在AI安全指数上的得分甚至低于西方同行,部分原因是未能解决灾难性误用问题,这是根据未来生命研究所的说法)。

自2022年以来,中国引入了一系列法律和技术标准,要求开发者在部署前向监管机构提交生成式AI模型进行安全评估,并在AI生成的内容上添加可见的、不可消除的水印,以防止欺诈和虚假信息。这一推动正在加速:根据总部位于北京的人工智能安全咨询公司Concordia AI的数据,中国在2025年上半年发布的国家级AI要求数量相当于过去三年的总和

理解中国动机:不仅是政治稳定

南加州大学洛杉矶分校的法律研究员和技术监管专家Angela Zhang表示,中国官员希望防止AI动摇政治稳定,但仍然允许它被用于促进经济增长。任何试图以安全的名义控制AI模型输出的尝试——无论是出于政治目的还是为了使输出与社会价值观保持一致——都仍然充满困难。

但正如神经科学家和AI企业家Gary Marcus在10月份伦敦的一次活动中对记者所说的那样,在许多方面,中国的动机与其他国家"非常相似"。“他们不想被机器人消灭。”

理解中国的AI标准对每个人都很重要。 该国生产免费或低成本访问的"开放权重"模型的政策意味着,世界各地的公司越来越多地在中国AI的基础上构建他们的服务。 同时,重要的是让中国研究人员多边参与,以帮助评估什么样的全球治理既有效又现实。

现有国际监管框架的局限

目前在全球层面监管AI的努力——例如经济合作与发展组织(OECD)的AI原则和欧洲理事会的AI框架公约——要么不具约束力,要么未被强制执行。要有效监管AI,需要独特的解决方案,但WAICO可以借鉴的一个模式是维也纳国际原子能机构(IAEA)用于监管核能的模式。该模式涉及各国同意发展限制,并开放核设施供检查,从而允许各国验证其他国家是否遵守该体系。

超越地缘政治竞赛的视野

围绕AI的许多言论将其框定为一场地缘政治竞赛,认为一个国家的安全是由技术主导地位来保证的。但"获胜"对大多数国家来说不是一个选项,AI军备竞赛不会保证人们更安全或更富有。

更好的计划是让每个人齐心协力,就什么是安全的以及世界如何利用AI达成一致。中国的倡议应该受到欢迎,世界各地的研究人员和当局都应该参与进来。