超越竞争:变革性人工智能时代的美中政策框架

https://www.digitalistpapers.com/vol2/graylin

作者:Alvin W. Graylin

HTC 公司 的企业发展副总裁,长期深耕于虚拟现实、增强现实、人工智能和区块链等前沿技术领域。他常驻中国,担任 HTC 中国区负责人多年,深度参与并观察了中国科技生态系统的崛起。这种长期在美中科技产业一线实践的经验,使他获得了有别于纯理论学者的独特视角。

许多观察家担心,对变革性人工智能或通用人工智能的追求对现有全球秩序构成了挑战。他们担心的是,美国和中国这两个全球人工智能领导者,现在正陷入一场旨在构建最强大技术版本的破坏性竞赛,这可能导致意想不到的后果和全球不稳定。

但在这篇文章中,作者探讨了美中两国超越竞争的另一条道路,并阐述了如何实现这种更有希望的合作结果。[2]


一、引言:从竞争到合作

通用人工智能的到来将重新排序权力、财富和安全;它是稳定还是粉碎全球体系,取决于美国和中国下一步的行动。作为世界人工智能的领导者,美国和中国面临着一个关键选择:是继续沿着竞争和军备竞赛思维的道路走下去,还是接受合作与共同管理的议程。本文主张后者。通过关注美国的国内准备和全球伙伴关系,我们可以超越零和思维,走向多边方法,在管理通用人工智能风险的同时传播其收益。

正如二战后秩序是由马歇尔计划和多个国际机构等富有远见的美国倡议所定义的一样,通用人工智能时代也要求美国发挥超越竞争的领导作用,并建立新的信任规范。目标是确保通用人工智能作为全人类的公共品而发展,而不是冲突的根源或催化剂。尽管白宫于 2025 年 7 月发布的《美国人工智能行动计划》[3] 讨论了加速创新的一些要点,但它缺乏确保经济平稳部署和避免加剧地缘政治紧张所需的整体视角。本文提供了一个关于全球对齐、共享安全标准、包容性经济政策的新合作框架,并提出了一条降低风险同时扩大共享收益的务实路径。

“正如二战后秩序是由马歇尔计划和多个国际机构等富有远见的美国倡议所定义的一样,通用人工智能时代也要求美国发挥超越竞争的领导作用,并建立新的信任规范。”

本文通过几个重要步骤展开:(1) 用与政策相关的区别定义人工智能类别;(2) 解释为什么不存在“通用人工智能终点线”;(3) 分解风险并表明目前滥用风险超过不对齐风险;(4) 论证合作和开放是安全通用人工智能的先决条件;(5) 制定美国的国内准备行动,如全民基本基础设施和收入、技能再培训或开放获取;(6) 解释为什么具有全球代表性的数据至关重要;(7) 提出一个双轨架构,在安全和公共利益方面进行合作,在其他方面进行负责任的竞争。

最终,“超越竞争”呼吁政策制定者和行业领袖将通用人工智能时代视为一个设计新的全球联盟并追求共享安全、共享繁荣和共享智慧以指导这项强大技术的机会,而不是一场赢家通吃的大国竞赛。

二、定义人工智能

迈向明智政策的第一步是理解不同类型人工智能的含义:

  • GOFAI (老式人工智能):程序员明确描述规则的早期人工智能形式。
  • ANI (人工窄智能):代表我们今天在世界上看到的大部分人工智能,旨在帮助执行特定任务。
  • Agentic AI / 智能体人工智能:人工智能系统具有更高水平的自主性,通过直接响应问题、团队合作或在必要时使用工具来完成复杂任务。
  • AGI (通用人工智能):通常在多种任务上具有与人类相当的认知能力的人工智能系统。
  • ASI (人工超级智能):远超人类水平的智能,能够进行递归式自我改进。

通用人工智能的成功实现意味着,最终,大多数认知劳动可以被机器取代。当与机器人系统和工具使用相结合时,大多数人类体力劳动也可能被取代。这将导致全球经济和我们生活方式的彻底重组。通用人工智能并不自动意味着人工超级智能。许多专家认为我们可能实现通用人工智能,但人工超级智能仍处于推测阶段,将引入全新的风险。本文将主要处理通用人工智能级别及以下的问题,但也会讨论人工超级智能对齐,建议的政策建议也适用于人工超级智能的关注。

三、不存在人工智能终点线

人工智能政策讨论通常假定,无论哪个国家或公司首先达到通用人工智能——“终点线”——都将获得永久的、决定性的战略优势:对未来创新或全球影响力的垄断。澄清人工智能没有真正的终点线,可以同时平息炒作和恐惧。尽管实现通用人工智能将是重大的,但它不会立即赋予其所有者神一般的全能。历史表明,变革性技术的领先时间可能是短暂的。美国仅保持了四年的核武器垄断。在互联网时代,知识传播的障碍甚至更低。人工智能的进步往往通过出版物、开源代码和人才流动迅速跨境传播。

“澄清人工智能没有真正的终点线,可以同时平息炒作和恐惧。尽管实现通用人工智能将是重大的,但它不会立即赋予其所有者神一般的全能。”

实际上,任何首先实现通用人工智能的初始优势都可能是短暂的——尤其是在秘密或孤立中追求的情况下。来自中国实验室(如深度求索、阿里巴巴和 Minimax)的新前沿模型清楚地表明,美国实验室曾经拥有的巨大领先优势已显著缩小。[7,8] 竞争实验室,尤其是高质量的开源模型,将迅速复制突破,而对立的立场只会激励其他人加倍努力。相反,一种合作的方法——共享安全研究和制定联合标准——可以让许多国家并行受益和学习,减少鲁莽加速的激励。

关键的是,即使一方成功“赢得”通用人工智能,也不能保证持久的安全或优势。通用人工智能不是静态的超武器;它更像一个活的软件生态系统,其他人也可以在此基础上构建、改进或武器化。如果美国“领先”并将通用人工智能视为统治工具,它可能会引发人工智能的危险扩散,因为其他大国会竞相开发自己的人工智能。长期结果可能是更大的不稳定,而不是更少。

与其追逐可能是得不偿失的胜利(例如,不惜一切代价试图成为第一),美国应该致力于塑造竞争环境,制定鼓励安全、道德和共享利益的规则。政策制定者应抵制赢家通吃的“通用人工智能军备竞赛”的简单化叙事。

四、人工智能风险:滥用大于不对齐

人工智能安全社区中有许多人认为,人工超级智能对人类构成生存威胁:他们认为我们将不可避免地失去控制,人工智能将有意识或意外地将所有人类变成“回形针”或“计算质”。这通常被归类为对齐风险。但这些担忧大多基于复杂的思维实验。没有明确的研究表明人工智能变得更聪明时会对人类变得更邪恶或更具攻击性。事实上,最近的研究指出,在更完整数据集上训练的模型会自动找到并优化整个系统的全局效用。[13] 这意味着,如果我们不合作并在全球范围内共享训练数据,由此产生的通用人工智能可能会偏向于特定目标或子群体,并在坏人手中成为危险的武器。

在最近关于人工智能生存威胁的讨论中,一些专家使用了“P(doom)”的概念——人工智能导致人类毁灭的概率。为了对各种类型的人工智能相关风险进行更严格的定义,以便更客观地评估和比较它们,并以此指导明智的政策制定过程和优先分配资源,我看到的四大类人工智能风险是:

  • 通用人工智能不对齐:导致人类毁灭或被人工智能征服
  • 坏人滥用:流氓团体或实体利用人工智能伤害或操纵民众
  • 社会滥用:大规模失业、权力集中或文明崩溃
  • 政府滥用:不受制约的地缘政治冲突升级导致全球战争

如果我们可以同意降低净风险是一个共同目标,那么我们可以通过整合我们有限的发展、训练资源以及代表所有文化的全球集成数据集和价值观体系,来构建更智能、更安全的模型。

而超级智能情景占据了头条新闻,许多专家认为未来十年更紧迫的威胁不是有意识的人工智能决定伤害人类,而是人类利用人工智能相互伤害。最近一份由全球 100 位专家编纂的国际人工智能安全报告详细描述了近期的滥用情景。[15] 报告列举了人工智能如何助长从对金融电网的自动化网络攻击到人工智能设计的生物武器、虚假信息和网络破坏等关键例子。

“我们的共同目标应该是‘守护人工智能’,而不仅仅是通用人工智能。人工智能对齐不应仅仅是原始服从;它必须拥有深刻的人类理解和仁慈感。”

然而,如果世界能够集中我们有限的资源,找到一种更好地将通用人工智能与亲社会价值对齐的方法,我们就有机会创造我称之为守护人工智能的东西:一个先进的人工智能系统,可以保护我们免受恶意人工智能、坏行为者、自然灾害甚至我们自身意外后果的侵害。守护人工智能可能会产生负的 P(doom),将全球存在的净风险降低到通用人工智能之前的基线水平以下。我们的共同目标应该是“守护人工智能”,而不仅仅是通用人工智能。人工智能对齐不应仅仅是原始服从;它必须拥有深刻的人类理解和仁慈感。实际上,我更希望我们努力实现人工智能的管理,而不是严格的对齐。

我们必须记住,P(doom) 不是一个固定的数字;它是一个我们可以通过行动影响的动态曲线。通过认识到所有国家都将面临的共同风险并支持通用人工智能的跨境对齐努力,我们将为世界提供宝贵的服务。

五、合作是开明的利己主义

一个务实的观点——每个人都面临相同的人工智能风险,因此合作符合各方的自身利益——应该能激励建立信任的措施,即使在战略对手之间也是如此。将人工智能生态系统分割成美国和中国两个领域,就像美国当前政策所做的那样,只会为坏行为者创造更多的安全空间来隐藏和攻击,使世界变得更加危险。

“将人工智能生态系统分割成美国和中国两个领域,就像美国当前政策所做的那样,只会为坏行为者创造更多的安全空间来隐藏和攻击,使世界变得更加危险。”

回顾历史,考虑一下早期的核时代:即使美国和苏联陷入冷战竞争,他们在防止核扩散给第三方和防止未经授权发射方面也有共同利益。这导致了红色电话热线、军备控制条约,并最终产生了合作减少威胁计划。在人工智能背景下,即使没有更广泛的政治联盟,防止人工智能扩散给流氓行为者也可能成为美中合作的领域。

值得注意的是,在 2023 年 11 月于英国布莱切利公园举行的人工智能安全峰会上,中国正式同意与美国、欧盟和其他国家合作,“共同管理来自人工智能的风险”,签署了一项“共同努力并建立共同的监督方法”的宣言。[18] 这种对话必须继续和深化,但遗憾的是,在 2025 年的人工智能安全峰会上,美国和英国是仅有的未签署更安全人工智能协议的国家。[19] 如果华盛顿和北京能够至少在防止人工智能落入恐怖分子手中和防止灾难性事故的目标上重新团结起来,这可能会成为一个信任的基础,进而促进行更雄心勃勃的合作。

“如果华盛顿和北京能够至少在防止人工智能落入恐怖分子手中和防止灾难性事故的目标上重新团结起来,这可能会成为一个信任的基础,进而促进行更雄心勃勃的合作。”

各国如何在像通用人工智能这样敏感的技术上进行实际合作?下面我提供几种可能性:一个分享研究和资源的多边组织、博弈论方法、双轨架构以及一个能源共享计划。

面向人工智能的欧洲核子研究中心/国际热核聚变实验堆

历史上有超越国界的“大科学”项目先例。欧洲核子研究中心成立于 1954 年,是这种可能性的一个典型例子。第二次世界大战后,有远见的科学家推动建立一个联合物理实验室,以防止人才流失到美国并重建国家间的信任。其成果——欧洲核子研究中心——汇集了数十个成员国的资源,用于追求基础研究。关键的是,欧洲核子研究中心的章程宣布其工作用于和平目的并公开分享。

如今,一些政策制定者和学者正在传阅关于“面向人工智能的欧洲核子研究中心”的提案。其核心思想是一个国际人工智能研究中心,各国贡献人才和资金,在一个安全、受监控的环境中共同开发先进的人工智能系统。[21] 这样的中心可以专注于安全研究、测试以及任何单一国家可能不想或无法独自承担的计算密集型项目。全球人工智能中心可以托管昂贵的基础设施,并向所有成员国的科学家开放访问权限。欧盟已经在计划这样的努力,[22] 如果美国不参与或支持,中国肯定会愿意提供帮助。事实上,就在美国发布其专注于保持美国对人工智能主导地位的《人工智能行动计划》[23] 几天后,中国发布了其《全球人工智能治理行动计划》,[24] 详细说明了其促进全球合作的意图,即通过多边努力创建和管理一个安全、公平、可靠和可控的先进人工智能系统,使其成为造福人类的国际公共品。

类似的逻辑支撑着核聚变领域的国际热核聚变实验堆项目。通过在 ITER 上合作,各国不仅分担成本,还分享专业知识,在加速进步的同时传播信任。这些项目证明了即使是战略竞争对手也可以在共同的存在利益领域进行合作。

面向人工智能的博弈论

重要的是,国际合作不需要全面展开。博弈论告诉我们,合作可以在迭代动态中出现。为了在通用人工智能安全方面启动这一进程,一个小的“信任举动”可以是美国邀请中国人工智能研究人员观察安全测试,或者中国共享医疗数据以支持人工智能药物发现研究。对于像囚徒困境这样的长期博弈,经典的“以牙还牙”策略在促进稳定合作方面非常有效。[25] 在博弈论术语中,我们希望扩大“未来的阴影”——即明确美国、中国和其他国家在人工智能领域存在长期关系,在这种关系中,对背叛的报复是确定且代价高昂的,但合作的回报会随着时间的推移而增加,从而鼓励参与者进行更长远的思考。初始的以牙还牙姿态可以包括互惠的透明度措施。可悲的是,如今,美国和中國遵循的是一种为双方产生最坏结果的策略:相互背叛。[26] 最近在韩国举行的特朗普-习近平会晤带来了紧张局势缓和的希望,并为这种合作打开了大门。

双轨接触

当然,在分享某些人工智能研究方面存在合理的担忧。关键是要划分界限,并将合作集中在民用和安全方面。可以有两条平行的轨道:轨道一是竞争的,每个国家都会保守一些秘密;轨道二是合作的,重点是使每个人受益的对齐、安全、医疗保健和标准。美国可以在竞争轨道上继续引领创新,同时在安全和公共利益轨道上倡导合作。

能源作为共享资源

通用人工智能竞赛中另一个常被忽视的因素是原始能源容量。能源生产较多的国家可能支持更密集的人工智能运营。例如,中国现在的发电量是美国的近三倍,[27] 且差距正在迅速扩大。仅 2024 年一年,中国新增的发电装机容量就几乎是美国的 10 倍。[28] 在合作框架下,中国可以向美国提供可持续的发电能力或设备用于联合人工智能研究,减轻我们建造越来越大的发电厂的压力,鉴于过去二十年我们几乎持平的能源产量,这一直相当具有挑战性。此外,共享人工智能见解可以防止在解决同一问题上重复努力。中国目前在清洁能源生产技术的所有领域都处于领先地位[31];如果长期目标是将我们的世界安全平稳地带入后稀缺时代,让中国站在我们一边符合美国的利益。

总之,通用人工智能领域的国际民用合作既是可行的,也符合每个主要大国的开明的自身利益。通过学习欧洲核子研究中心和国际热核聚变实验堆等模型,采用以牙还牙策略,采取双轨方法,并共享能源资源,我们可以构建一个环境,将焦点从惨淡的竞赛转向共同提升。

六、开源人工智能作为公共品

支持合作而非对抗的通用人工智能路径的最有力论点之一是开源和开放科学的概念。如果通用人工智能的核心技术是开放开发的,这种工作模式可以减少猜疑,民主化访问,并使更多人能够发现问题。Yann LeCun 设想了一个世界,在那里,“我们可以用分布在世界各地的数据中心以分布式方式训练我们的开源平台。……它们将为一个共同的模型做出贡献,该模型本质上将构成所有人类知识的存储库。”[32] 在 LeCun 看来,这样一个共享的全球人工智能模型将远远超过任何一家公司或国家单独建造的模型,重要的是,每个人都将在其中拥有利益。

“开源和多利益相关方开发可以确保经过‘所有人类知识存储库’训练的通用人工智能真正融入全人类,而不仅仅是狭隘的一部分。”

关键的是,开放也与文化和全球代表性的主题相关。一个专门由一种文化开发的人工智能可能会在其他地方失败。如果人工智能过度受特定子群控制,它将反映其创造者的偏见和盲点。开源和多利益相关方开发可以确保经过“所有人类知识存储库”训练的通用人工智能真正融入全人类,而不仅仅是狭隘的一部分。正如我们对待道路、电网和互联网骨干网等关键基础设施一样,先进的人工智能可能需要被视为公共品。提供代码和权重还意味着小型实验室和学术界可以为该领域的进步发挥更大的作用,公司可以在本地部署这些模型,而不必担心其专有数据泄露。

当然,开放必须与安全措施相平衡,但默认取向应该是包容和透明,而不是囤积。这也能建立国际信任:如果中国知道美国在公开地追求人工智能,它就会减少对意外飞跃的恐惧。

几年前,开源模型明显弱于闭源模型,但差距已经缩小,如果趋势继续,长期来看开源模型有可能在性能上超越闭源模型。当这种情况发生时,美国参与这些开源努力至关重要。就在 2025 年 11 月我完成本文时,月之暗面 Kimi K2 推理模型[39] 发布,它的表现与甚至领先的西方实验室前沿模型相当或更好,同时能够在仅两台 Mac Mini 上运行。现在差距已不存在,这意味着所有那些封闭实验室过去几年正在构建或计划构建的数万亿美元的 GPU“护城河”将需要被完全重新评估。

具体的政策可以通过多种方式支持开源人工智能努力。美国政府可以增加对涉及国际合作的、对开源人工智能研究计划的资助,并确保出口管制制度不会无意中扼杀开放的学术交流。

七、国内准备

“为了使美国在通用人工智能时代以身作则,它必须在国内展示一种包容性适应的模式,确保其民众有能力在与智能机器共存的同时蓬勃发展,并且人工智能的利益不仅仅归于狭窄的精英阶层。”

全球合作至关重要,但如果没有国内准备,它就无法成功。在美国,通用人工智能的到来将加剧现有的社会挑战,除非采取积极措施。为了使美国在通用人工智能时代以身作则,它必须在国内展示一种包容性适应的模式,确保其民众有能力在与智能机器共存的同时蓬勃发展,并且人工智能的利益不仅仅归于狭窄的精英阶层。这正是前瞻性政策发挥作用的地方,如全民基本基础设施和收入 (UBII)、大规模的再培训计划和开放获取人工智能工具。

全民基本基础设施和收入

UBII 通过保证每个公民都能获得高科技经济所需的基本服务和基础设施,扩展了全民基本收入的概念。这意味着不仅是缓冲失业影响的基准货币收入,还包括普遍的高速互联网、负担得起的医疗保健、高质量的教育,甚至对人工智能计算资源的访问——现代经济参与的基本基础。将 UBII 视为确保没有美国人在通用人工智能转型中掉队。UBII 不是付钱让人无所事事,而是让人能够追求自己热爱的事业,同时抑制反社会行为。[43]

面向人工智能时代的社会安全网和再培训

我们并不陌生用社会安全网确保平稳过渡。在 1944 年,预期超过一千万军事人员在二战后重返社会,美国立法机构通过了具有里程碑意义的《军人权利法案》。美国需要启动类似于“面向人工智能时代的 GI 法案”的大规模计划,重新培训所有受影响的工人以适应通用人工智能后所需的新型工作。如果通用人工智能处理更多的认知繁重工作,人类的工作将转向我们独特提供的东西——背景、伦理、同理心、同情心和领导力。随着我们的经济日益自动化,我们需要教导我们的人民重拾人性。许多人会问:我们如何负担得起这些项目?真正的问题应该是,“我们能负担得起不提供这些必要的项目吗?”我们 1940 年代的领导人理解我们为什么需要它们,而现在的原因更加充分。

美国作为国际治理的领导者

最后,在政府层面与中国和欧盟建立信任需要并行的轨迹。与欧洲,美国应深化围绕人工智能伦理和法规的伙伴关系。与中国,需要更微妙但至关重要的接触。这可能包括恢复近年来减少的正式科技对话,甚至成立一个美中人工智能安全联合委员会。建立信任的措施可能包括科学家的互访实验室、国家人工智能研究中心之间的直接热线以快速澄清任何事件,以及预先商定的军事人工智能“道路规则”。布莱切利公园峰会是一个令人鼓舞的迹象。在此基础之上,美国可以邀请中国加入一个关于前沿人工智能安全的常设工作组。同时,与盟友合作,对负责任的人工智能使用形成统一战线,将在全球范围内设定健康的期望。

国内社会稳定是美国作为可信赖全球领导者的先决条件;没有它,美国将输出波动。

八、全球人工智能对齐需要全球输入

将通用人工智能与人类价值观对齐通常被认为是最首要的技术挑战:我们如何确保机器智能尊重伦理原则和丰富的人类道德?一个关键的见解是,“人类价值观”不是单一的——它们是多元和多样的。一个仅在西欧或美国数据上训练的通用人工智能可能会无意识地吸收西欧或美国价值观的偏见和盲点。因此,实现真正的全球对齐需要文化代表性的数据集和通用人工智能训练及治理中的国际输入。

“没有一个国家能够充分预见通用人工智能将运行的所有情境;国际合作不是可有可无的,而是功能上必需的,以覆盖通用人工智能可能遇到的全范围人类条件。”

考虑语言作为类比:如果你只在法语或英语源上训练人工智能,它在理解例如中国方言的查询或习语方面会表现不佳——不仅是语言上,而且是上下文上。伦理和规范也是如此。如果通用人工智能要驾驭世界关切的复杂性,它必须由世界各地的社会来教育。换句话说,没有一个国家能够充分预见通用人工智能将运行的所有情境;国际合作不是可有可无的,而是功能上必需的,以覆盖通用人工智能可能遇到的全范围人类条件。

全球输入对合法性也很重要。想象一下,一个仅由西欧和美国创建的通用人工智能治理制度——其他国家理所当然会警惕或感到被支配。相反,如果对齐协议或安全指南来自一个多边进程,它们更有可能被各地采纳。对于通用人工智能,我们可以召集一个由来自不同哲学和宗教传统的代表组成的国际通用人工智能伦理委员会,以制定出通用人工智能应遵守的共同基本原则。

值得注意的是,中国和其他国家并非本质上反对这个想法。在人工智能伦理论坛上,中国学者经常强调和谐与社会责任——这些价值观与全球利益高度契合。如果美国为真正的对齐合作伸出开放之手,很可能会找到许多参与者。

另一个有趣的概念是利用通用人工智能本身来促进全球理解——例如,部署先进的人工智能作为解决冲突的文化桥梁。如果通用人工智能能够使任何个人或国家实时地、以完整的本地上下文相互交流,它可以减少那些助长冲突的误解。

总之,全球对齐意味着全球参与。通过确保丰富多样的人类输入融入通用人工智能的形成,我们可以增加它在决策时尊重文化细微差别的几率,并避免被试图分裂或伤害各种群体或个人的恶意行为者滥用。

九、构建后通用人工智能框架

在历史的 pivotal 时刻,美国已经站出来建立了超越竞争的合作体系。二战后,美国没有惩罚对手或退缩到孤立主义,而是通过马歇尔计划和相关项目投资于欧洲和日本的重建。这避免了这些地区的经济崩溃和共产主义革命,也巩固了联盟,并为数十年的和平与繁荣奠定了基础。同样,在冷战期间,即使美国和苏联囤积武器,他们也达成了前所未有的协议——从《不扩散核武器条约》到 SALT 和 START——这些协议为军备竞赛设置了护栏,并让几乎所有国家都参与了防止核战争。

“SALT 和 START 的教训现在比以往任何时候都更相关:克制不是软弱的表现;它是在充满存在性风险的世界中最理性的生存策略。”

今天,我们站在与通用人工智能类似的十字路口。如果我们纯粹将其视为竞争领域——一场新的太空竞赛或军备竞赛——我们就有可能重蹈 20 世纪斗争中最黑暗的方面,鉴于人工智能潜在的普遍性,后果可能更糟。

人工智能时代的马歇尔计划会是什么样子?它将要求美国带头进行大规模的国际投资,不仅在重建物理基础设施,而且在全球范围内建设数字和人力基础设施。例如,美国可以领导一个财团,资助新兴市场的人工智能驱动的教育和医疗保健解决方案,有效地将通用人工智能的好处输出到全球的每一个角落。这种慷慨不仅是利他的:它将减少冲突的温床,并创造维护稳定世界的伙伴。

在治理方面,美国应利用其仍然相当大的外交影响力,在猜忌恶化为人工智能冷战之前,塑造关于人工智能的全球条约或协议。一个模型可能是《全球通用人工智能宪章》,各国承诺仅为和平目的使用通用人工智能,并在安全方面进行合作。可以为某些高风险的人工智能活动设计核查机制;例如,可以邀请国际观察员到主要的通用人工智能训练设施,以证明他们遵守商定的安全协议。听起来有些牵强,但回想一下,曾经让外国人检查一个国家的导弹发射井也听起来不可能,但在军备控制条约下这已成为常规。美国还可以倡导扩大联合国的职权范围,包括一个“国际人工智能机构”,类似于国际原子能机构,但针对人工智能。

关键是,这都不意味着美国放弃其价值观或国家利益——恰恰相反,这意味着以可持续的方式投射它们。美国传统的自由、开放和创新理想更能通过一个开放的世界体系来推进,在这个体系中,通用人工智能是充裕的且利益共享,而不是一个由孤立和猜疑组成的封闭世界体系。合作立场并不意味着对核查或对冲背叛天真。但它确实意味着相信双赢结局的可能性。

十、结论

通用人工智能的地缘政治时刻与 1940 年代末相呼应。那时,我们面临着分裂与统一的选择,而美国长期以来 champion 了统一并取得了显著成功。现在,随着通用人工智能迫近,我们必须再次选择。我们是滑向一种警惕的两极或多极竞争,在没有可能赢家的不确定结局中竞赛?还是我们将在远见指导下,建立一个新的对齐与合作架构,将这项技术引导到普遍利益的方向?答案部分取决于我们是否能想象一个正和的未来并采取行动实现它。但我们必须在通用人工智能完全实现之前的未来几年内采取行动。

“通过超越竞争,美国与中国可以共同谱写一个未来,在那里,通用人工智能将不是被铭记为一个战场,而是人类集体进步新时代的基石。”

所有这一切都必须从我们思维方式的转变开始,即理解世界不是零和的,合作不是软弱。世界需要团结在一个共同目标周围,即建立一个仁慈的守护人工智能,它不仅能保护我们免受坏行为者和自然灾害的侵害,还能保护我们免受自身行动的意外后果。人工智能的好处必须与全世界所有人民共享,而不是被少数精英囤积。我们必须为自己和整个世界准备好平稳过渡到后劳动经济,否则我们将面临街头的混乱。美国在二战后重建和稳定世界发挥了关键作用。它必须在历史的这个关键时刻再次挺身而出,成为世界的团结力量。

这也是斯坦福大学《数字主义论文》背后的精神,它旨在为全球通用人工智能治理绘制蓝图,为一个新的全球联盟架构可以崛起的基础。[58] 通过超越竞争,美国与中国一起,可以共同谱写一个未来,在那里,通用人工智能不是被铭记为一个战场,而是人类集体进步新时代的基石。放下我们根深蒂固的本能并不容易,但这既是可能的也是必要的。历史表明,没有团结的安全是脆弱的。我们必须共同建立一个共同的守护者,否则只能任由机遇摆布。

附录 A

表 1:人工智能类型定义和相关风险总结

附录 B

图 5:按人工智能分类的净风险

附录 C

当今政策制定的两个方向相互竞争。主导的政策叙事侧重于国家优势,一些专家主张专注于工具人工智能和主权人工智能以使世界更安全。然而,当客观评估风险时,安全和繁荣在于守护人工智能——更智能的对齐系统,它们不盲目服从我们,而是能主动保护我们免受我们尚未看到的威胁。要达到守护人工智能,世界领导人需要采取更长期、更全面的政策路径,为他们的国家和世界带来持久的利益。

表 2:人工智能政策制定的两个竞争方向比较

参考文献

[1] 通用人工智能最近被一些人称为“TAI”,正如本卷中其他文章所用。为了避免混淆,本文其余部分将使用术语“AGI”。

[2] 作者感谢…在撰写本文时提供的不可或缺的反馈。

[3] The White House, “America’s AI Action Plan” (2025 年 7 月).

[4] Jerome C. Glenn, “Why AGI Should Be the World’s Top Priority,” Horizons: Journal of International Relations and Sustainable Development 30 (Spring 2025).

[5] Glenn, “Why AGI Should Be the World’s Top Priority.”

[6] Alvin Graylin and Paul Triolo, “There Can Be No Winners in a US-China AI Arms Race,” MIT Technology Review, 2025 年 1 月 21 日.

[7] Video Generation Model Arena Leaderboard, Artificial Analysis; LLM Leaderboard, Verified AI Rankings.

[8] Artificial Analysis, AI Model & API Providers Analysis.

[9] Matt Crump, “Yoshua Bengio’s Vision for AI: Balancing Innovation with Ethical Responsibility,” 1950.ai, 2025 年 1 月 31 日.

[10] Alvin Graylin, “The US–China AI Arms Race,” Committee for the Republic Salon, YouTube, 2025 年 5 月 28 日.

[11] Nick Bostrom, “Ethical Issues in Advanced Artificial Intelligence,” 2003.

[12] JoshuaFox et al., “Computronium,” LessWrong, 2012 年 11 月 18 日.

[13] Mantas Mazeika et al., “Utility Engineering: Analyzing and Controlling Emergent Value Systems in AIs,” 预印本, arXiv, 2025 年 2 月 19 日.

[14] Sara Brown, “Why Neural Net Pioneer Geoffrey Hinton Is Sounding the Alarm on AI,” MIT Sloan, 2023 年 5 月 23 日.

[15] International AI Safety Report, 2025.

[16] Saddique Ansari, “The Kuznets Curve,” Economics Online, 2023 年 6 月 19 日.

[17] Alvin Graylin, “Kuznets Curve for AI Risk,” AWE, YouTube, 2024 年 6 月 20 日.

[18] Paul Sandle and Martin Coulter, “AI Safety Summit: China, US, and EU Agree to Work Together,” Reuters, 2023 年 12 月 1 日.

[19] Zoe Kleinman and Liv McMahon, “UK and US Refuse to Sign International AI Declaration,” BBC, 2025 年 2 月 11 日.

[20] Elliot Jones, “A ‘CERN for AI’—What Might an International AI Research Organization Address?,” 载于 Alex Krasodomski 编, Artificial Intelligence and the Challenge for Global Governance (Chatham House, 2024 年 6 月).

[21] Jones, “A ‘CERN for AI’.”

[22] Alex Petropoulos et al., Building CERN for AI: An Institutional Blueprint (Centre for Future Generations, 2025).

[23] The White House, “America’s AI Action Plan.”

[24] 中华人民共和国外交部, “Global AI Governance Action Plan,” 2025 年 7 月 26 日.

[25] Eric Estevez, “What Does Tit for Tat Mean, and How Does It Work?,” Investopedia, 2024 年 2 月 27 日.

[26] Estevez, “What Does Tit for Tat Mean, and How Does It Work?”

[27] “Renewables Capacity Doubles in First Half,” China Daily, 2025 年 7 月 31 日; U.S. Energy Information Administration, “Electric Power Monthly,” 2025 年 12 月 23 日.

[28] US Energy Information Administration, “Today in Energy”; Carolyn Wang, “Monthly China Energy Update,” Climate Energy Finance, 2025 年 2 月.

[29] Marc Andreesen, “From ChatGPT to Billions of Robots,” 采访 Joe Lonsdale, Joe Lonsdale: American Optimist, YouTube, 2025 年 5 月 30 日.

[30] “The Global AI Talent Tracker 2.0,” Macro Polo.

[31] Statista, “Leading Countries in Installed Renewable Energy Capacity Worldwide in 2024,” 2025 年 7 月.

[32] Lakshmi Varanasi, “Meta’s Chief AI Scientist Says All Countries Should Contribute Data to Shared Open-Source AI Model,” Business Insider, 2025 年 5 月 31 日.

[33] Varanasi, “Meta’s Chief AI Scientist Says All Countries Should Contribute Data to Shared Open-Source AI Model.”

[34] Xinhua, “Report Shows US, China Make Up 60pct of Global AI Researchers,” XinhuaNet, 2025 年 7 月 4 日.

[35] Ciarán Daly, “Bengio: Open Science and International Cooperation Key to AI for Good,” AI Business, 2021 年 2 月 18 日.

[36] Toms Bergmanis, “The LLM Data Dilemma: Ocean of Dirt or Drop of Gold?,” Tilde, 2025 年 1 月 22 日.

[37] Mazeika et al., “Utility Engineering.”

[38] OpenAI, “Introducing gpt-oss,” 2025 年 8 月 5 日.

[39] Julian Horsey, “Kimi K2 Thinking Leaps Ahead: Open Model Beats OpenAI & Google in Tests,” Geeky Gadgets, 2025 年 11 月 7 日.

[40] Petropoulos et al., Building CERN for AI: An Institutional Blueprint.

[41] Alvin Graylin, “America Is Running the Wrong AI Race,” Abundanist: A Post-Scarcity Community, Substack, 2025 年 7 月.

[42] Graylin, “America Is Running the Wrong AI Race.”

[43] Alvin Graylin, “Abundanism: A New Philosophy for a Post-Scarcity World,” Abundanist: A Post-Scarcity Community, Substack, 2025 年 5 月 13 日.

[44] Alvin Graylin, “A ‘Bill of Rights’ for the Age of AI,” Abundanist: A Post-Scarcity Community, Substack, 2025 年 7 月.

[45] US National Science Foundation, “Democratizing the Future of AI R&D: NSF to Launch National AI Research Resource Pilot,”, 2024 年 1 月 24 日.

[46] Statista, “Monthly Civilian Labor Force in the United States.”

[47] Christopher Rugaber, “Unemployment Among Young College Graduates Outpaces Overall US Joblessness Rate,” AP News, 2025 年 6 月 26 日.

[48] Erik Brynjolfsson, Bharat Chandar, and Ruyu Chen, “Canaries in the Coal Mine?,” 斯坦福数字经济实验室, 2025 年 8 月 26 日.

[49] Ileana Exaras, “Military Spending Worldwide Hits Record $2.7 Trillion,” 联合国新闻, 2025 年 9 月 9 日.

[50] Rugaber, “Unemployment Among Young College Graduates.”

[51] Sandle and Coulter, “AI Safety Summit.”

[52] 中华人民共和国外交部, “Global AI Governance Action Plan.”

[53] “Google Deepmind CEO Says Global AI Cooperation ‘Difficult’,” Economic Times CIO, 2025 年 6 月 3 日.

[54] Sandle and Coulter, “AI Safety Summit.”

[55] “Albania’s AI Minister is ‘Pregnant’ with 83 Digital Assistants, Prime Minister Says,” EuroNews, 2025 年 10 月 30 日.

[56] Mark Robinson, “The Establishment of an International AI Agency,” International Affairs 101, no. 4 (2025 年 7 月): 1483–1497.

[57] Graylin, “Abundanism.”

[58] Erik Brynjolfsson, Alex Pentland, Nathaniel Persily, Condoleezza Rice, and Angela Aristidou, 编, The Digitalist Papers (斯坦福数字经济实验室, 2024).

转载请注明:《中国社会分红/基本收入研究网》 浏览量:42 views