通用人工智能竞赛中的战略动态:是时候竞赛还是时候克制

https://www.digitalistpapers.com/vol2/graylin

作者:Lisa Abraham, Joshua Kavner, Alvin Moon, 和 Jason Matheny

Joshua Kavner、Alvin Moon 和 Jason Matheny。他们均来自或曾服务于兰德公司,这是美国乃至全球最顶尖的智库与政策研究机构。

一场全球性的变革性人工智能竞赛正在进行,其特点是美国和中国之间的竞争日益激烈。我们应该如何看待这些动态?在这篇文章中,作者使用博弈论来阐明竞赛的本质,并得出实际的政策启示。他们认为,竞争并非不可避免,但转向合作也并非自动发生,也不容易。


通用人工智能竞赛

博弈论长期以来影响着政策制定者如何应对高风险的科技竞争。20 世纪 50 年代,兰德公司的数学家 Merrill Flood 和 Melvin Dresher 提出了后来被称为“囚徒困境”的模型。它展示了理性的、追求自身利益的行为者如何最终得到集体更差的结果。[1] 这个故事很熟悉:两名嫌疑人被分开审讯,必须选择是合作还是背叛。虽然相互合作会产生最好的集体结果,但个人激励却驱使每个人都走向背叛。

在接下来的几十年里,兰德公司的研究人员将囚徒困境应用于美苏之间的核军备竞赛,为威慑、军备控制和危机管理的逻辑提供了见解。[2] 该模型的持久相关性在于它能够将复杂的战略互动提炼成易于处理的、与政策相关的经验教训。

如今,博弈论为理解开发变革性人工智能(包括通用人工智能)的全球竞赛提供了一个有用的框架。将通用人工智能竞赛建模为一种战略博弈,有助于为可能产生深远影响的政策决策提供信息。其核心是一个对所有未来政策决策至关重要的问题:实际在玩什么游戏?我们对游戏的理解应如何塑造这些高风险的决策?回答这些问题对于理解支配通用人工智能开发中合作与竞争的参数至关重要。

“这场竞赛不仅关乎谁先开发出变革性人工智能;还关乎塑造将在未来几十年内支配技术领先地位的规则和规范。”

其利害关系再高不过了。通用人工智能的变革潜力承诺了决定性的先发优势,[3] 但也带来了潜在的巨大、高风险的危险:与人类利益的不一致、被用于武器化的滥用,以及国际不稳定。[4] 如同最初的困境,“获胜”的诱惑可以驱使各国加速通用人工智能的发展,即使在双方都更倾向于相互克制的情况下也是如此。

这一挑战并非理论上的;它正在实时展开。在美国,主要科技公司加大了投资和研究力度,以开发更强大的模型和应用。白宫最近的 AI 行动计划呼吁国家层面的领导和投资。[5]

与此同时,中国政府推行了一项由大量资金、政策支持和协调一致的方法(整合了研究和部署)支持的人工智能战略。中国公司正在大力投资基础模型,而国家机构则促进人工智能在各领域的整合。DeepSeek 的推出颠覆了西方对中国人工智能能力的假设,并凸显了技术领先地位的不稳定性。

各国政府在人工智能研发、传播和国际合作方面所做的战略选择具有现实世界的影响。人工智能投资决策不仅影响创新步伐,还影响监管环境、资源配置以及技术进步的更广泛轨迹。这场竞赛不仅关乎谁先开发出变革性人工智能;还关乎塑造将在未来几十年内支配技术领先地位的规则和规范。

使用博弈论对竞赛进行建模

对变革性人工智能竞赛进行建模之所以困难,正是因为其复杂性。先前使用博弈论对这些动态进行建模的尝试倾向于关注竞赛的某些方面。有些人强调技术能力的作用,另一些人强调监管框架的影响,还有一些人强调战略竞争的影响。[6] 这些模型得出了不同的结论。例如,Dung 和 Hellrigel-Holderbaum 的分析表明,各国不会通过通用人工智能获得决定性的战略优势,这使得更慢、更规避风险的发展更具吸引力。[7] 这支持了 Katze 和 Futerman 的论点,即对于国家而言,在通用人工智能发展上进行国际合作在战略上更好,而不是冒着破坏国际秩序、失去控制或加剧国内不稳定的风险。[8] 另一方面,Kreps 主张加速发展,以此来解决关于通用人工智能军事能力和经济影响的不确定性。[9] 这些不同的政策建议反映了抽象地表示这场竞赛的困难。

复杂性的一个来源是涉及的参与者众多。私营公司已成为人工智能发展的驱动力,在专业知识和资源方面都超过了学术界和政府。[10] 像 OpenAI、Anthropic、DeepMind 以及它们的中国同行这样的公司拥有推动人工智能边界所需的技术能力、数据和金融资源。这种转变具有社会影响,因为主要激励是商业性的私营公司更难将人工智能的社会成本内部化。专业知识在私营公司内部的集中使监管工作复杂化,因为政府可能既缺乏技术能力,也缺乏设计有效监督所需的访问权限。

“专业知识在私营公司内部的集中使监管工作复杂化,因为政府可能既缺乏技术能力,也缺乏设计有效监督所需的访问权限。”

即使抽象到国家层面仍然存在挑战,例如识别关键竞争对手。虽然美国和中国通常被视为主要竞争对手,但欧洲的角色是模糊但可能很重要的。欧盟的人工智能法案[11] 是世界上第一个全面的法律框架,优先考虑风险缓解,但被批评为使欧洲远离技术前沿。Garicano 和 Saa-Requejo 概述的另一个论点强调,考虑到相对于美国和中國同行的根本劣势,欧洲并未准备好参与竞赛,并讨论了欧洲如何仍可以成为传播和为商业人工智能模型提供竞争市场的重要参与者。[12] 除了欧洲,还有其他潜在地区可能成为未来战略联盟的重要组成部分,例如沙特阿拉伯、阿联酋和关键的新兴市场。

考虑到通用人工智能的发展只是“先发优势”等式的一部分,这些复杂性变得更加复杂。虽然美国历来更加注重开发前沿模型和保持技术领先地位,但中国政府的战略似乎更侧重于人工智能在全社会的广泛应用和整合。这引发了关于“竞赛”本身性质的问题。它是开发最先进模型的竞赛,还是实现最广泛和最有效的商业部署的竞赛?[13]

在这些复杂性之上,还叠加了远远超出狭隘技术竞争逻辑的激励因素。在美中关系中,关于通用人工智能风险方面合作的缺失还受到更广泛的战略竞争、安全紧张局势和历史不信任的影响。“联系”的可能性是美中动态的一个基本部分。[14]

最后,技术的基本特征和发展时间表的不确定性导致了关于通往通用人工智能转型路径的模糊性。甚至对于什么 AI 模型构成通用人工智能的共识也有待商榷,因为对“人类水平”智能的定义可能各不相同。这种不确定性使预测、监管和围绕通用人工智能里程碑进行协调的努力复杂化。

来自模型的见解

历史表明,即使是简化形式的战略建模,对于阐明驱动国家选择的激励和风险也是有价值的。在冷战期间,囚徒困境将核军备竞赛的逻辑提炼成一个易于处理的框架。今天,类似的方法可以阐明通用人工智能竞赛。

最近兰德公司的一份报告开发了一个初步框架来表示这些动态。Abraham、Kavner 和 Moon 开发了一个程式化的、数学上中立的模型来分析通用人工智能竞赛。[15] 这种方法很有价值,原因有二。首先,它使政策制定者能够从复杂性中抽象出来,专注于核心战略问题:像美国和中国这样的国家应该做出什么选择来塑造对其有利的监管环境?其次,它阐明了哪些挑战构成了不同参与者之间的社会困境,而哪些挑战是技术变革性质固有的。

“像美国和中国这样的国家应该做出什么选择来塑造对其有利的监管环境?”

Abraham、Kavner 和 Moon 的模型做了几个有意的简化。它关注两个主要参与者,并假设他们具有对称的信息和能力。每个国家在一个一次性博弈中选择两种策略之一:优先考虑风险缓解的基线方法,或优先考虑速度和竞争优势的加速方法。这些选择是同时做出的,每个国家最初都不知道对方的选择。至关重要的是,假设如果任何一个国家加速,双方都会分担增加的不利结果风险,这反映了通用人工智能风险的全球系统性。收益结构将开发和部署通用人工智能的长期折现回报捆绑在一起,而不是区分它们。通用人工智能竞赛的获胜者由概率决定,成功的可能性取决于所选策略。

在这些假设下,该模型的核心见解是,各国在通用人工智能竞赛中的战略行为取决于成为第一的回报与快速发展相关的风险之间的平衡。这种权衡归结为加速的额外预期收益与风险增加带来的预期成本之间的阈值条件。[16] 如果收益超过风险,那么两国都有动力加速,即使以增加不利结果的可能性为代价。这种动态反映了经典的囚徒困境:每个国家都担心如果选择谨慎而对方加速,自己会失利,导致双方都背叛并加剧集体风险。相反,如果风险超过收益,那么预期成本被认为大于预期回报。在这种情况下,存在两个均衡:一个是两国都加速发展通用人工智能,另一个是两国都优先考虑风险缓解而非加速。

在后一种情况下为什么会出现两个均衡?直观地说,当加速的成本相对于回报很高时,任何一方都不想在没有对方也会同样做的保证下单方面改变策略。如果两国都选择加速发展,任何一方都没有动力单独转向基线发展。相比之下,如果两国都选择基线发展,任何一方都不会受到加速的诱惑,因为额外的成本并不能被潜在回报所证明。这种相互依赖造成了一种局面,即合作和竞争的结果都是稳定的,挑战变成了协调问题:在合作均衡上保持一致,并确保双方对彼此的承诺都有信心。因此,这种情况产生了众所周知的协调博弈。[17]

当然,这种程式化的模型并没有完全捕捉到现实世界的通用人工智能竞赛是一个持续的过程。各国和公司进行增量投资,更新策略,并随着时间的推移对新信息做出反应。这个时间维度引入了随时间推移合作与背叛的动态激励。

当模型扩展到重复设置时,在任何给定回合中开发出通用人工智能的概率是不确定的,并且来自持续人工智能进展的阶段性回报可能是巨大的。博弈论中确立的民间定理[18] 阐明了相互优先考虑风险缓解而非加速可以出现的条件。特别是,只要在任何回合中出现通用人工智能的概率足够低,并且合作的阶段性回报相对较高,长期合作就会变得稳定和有吸引力。相反,如果时间线缩短,加速下成为第一的概率很高,或者合作的阶段性回报相对较低,那么竞争压力就会加剧。在这种情况下,长期合作变得不稳定,因为各国更倾向于加速其通用人工智能发展。[19]

对现实世界的战略启示

对于政策制定者而言,Abraham、Kavner 和 Moon 的分析提供了一个有用的见解,即导致不对齐通用人工智能的竞赛并非定局。相反,驱动各国加速发展人工智能的激励取决于对先发优势规模、不利风险的可能性及其严重性的看法。当不对齐或失控的通用人工智能所带来的预期风险被认为相对于先发优势的预期回报足够严重时,国家领导人的激励就会转向优先考虑风险缓解。

在这种情况下,每个国家的理性选择可能会从竞争性加速转向合作。然而,这种从对抗到克制的转变既不是自动发生的,也不是容易的。战略格局从一个背叛困境转变为一个复杂的协调挑战,其中合作的好处存在,但必须积极实现。

“如果人工智能的渐进式进步为经济增长、医疗保健或国家安全带来显著的阶段性收益,那么追求优先考虑风险缓解的、有节制的、协调发展就变得更有吸引力。”

为了使合作 robust 和可持续,可能需要满足几个先决条件。首先,各国对通用人工智能发展的风险和回报的看法必须一致。这可能需要进行对话、技术交流,以及对什么是值得信赖的通用人工智能达成共识。其次,信息共享和透明度的可信机制将有助于监控对商定发展的行动。第三,理解监控如何转化为信任对于合作很重要。[20]

Abraham、Kavner 和 Moon 的模型也强调,临界点本身是动态的且依赖于情境。技术安全的进步、关于通用人工智能时间表的新信息、国家优先事项的转变或新全球治理机制的引入等因素都会影响这种平衡。例如,如果人工智能的渐进式进步为经济增长、医疗保健或国家安全带来显著的阶段性收益,那么追求优先考虑风险缓解的、有节制的、协调发展就变得更有吸引力。共享这种风险成本的机制可以进一步降低合作障碍。另一方面,如果出现通用人工智能的可能性迅速增加,成为第一的感知优势变大,或者公司将自己与责任隔离开来,那么加速发展的激励可能会占主导地位。

最终,通用人工智能竞赛的轨迹不仅由国家雄心或技术能力塑造,还由不断变化的激励结构、信息的质量和传达信息的机制,以及共享风险的感知严重性所塑造。鉴于这一点,随着新信息的出现和战略环境的变化,不断重新评估竞争与合作之间的平衡将是重要的。

规划前进的道路

美国和中国之间日益加剧的竞争已成为全球通用人工智能竞赛的中心轴。由于担心经济优势和对国际规范的影响,两国都在大力投资以确保技术领先地位。随着每个国家寻求超越对方,利害关系继续上升。

美中关系具有深远的影响,不仅塑造了创新的步伐,也塑造了全球标准的发展和国际合作的潜力。它们的行动为参与变革性人工智能发展的其他国家和组织定下了基调,影响着全球的战略决策。这些领先参与者所做的选择将继续在整个国际体系中产生反响。

这就是为什么理解这场竞赛中固有的激励和风险对于有效的政策至关重要。政策制定者必须能够清楚地定义其中的战略动态,以识别合作机会、管理升级,并在必要时建立风险缓解措施。只有有了这种清晰的认识,领导人才能在追求国家利益与更广泛的全球稳定目标之间取得平衡。

虽然博弈论为分析这些动态提供了一个有价值的起点,但它仍然是一个不断发展的工具。反映人工智能竞争不断变化的复杂性的持续研究,对于指导合理的政策和促进国际理解至关重要。对战略博弈发展更深入的理解,并应用这些见解来应对相关的现实世界挑战,将大大有助于确保在通往变革性人工智能的道路上,合作与竞争的机会都不会被浪费。

“对战略博弈发展更深入的理解,并应用这些见解来应对相关的现实世界挑战,将大大有助于确保在通往变革性人工智能的道路上,合作与竞争的机会都不会被浪费。”


参考文献

[1] Merrill M. Flood, Some Experimental Games (美国空军项目, 兰德公司研究备忘录 789-1, 1952 年 6 月 20 日修订).

[2] Steven Kuhn, “Prisoner’s Dilemma,” 载于 Stanford Encyclopedia of Philosophy, 1997 年 9 月 4 日发布, 2019 年 4 月 2 日实质性修订.

[3] Jim Mitre and Joel B. Predd, Artificial General Intelligence’s Five Hard National Security Problems (兰德公司, 专家见解, 2025); Colin H. Kahl and Jim Mitre, The Real AI Race: America Needs More Than Innovation to Compete With China (兰德公司, 外交事务, 2025).

[4] Dan Hendrycks, Mantas Mazeika, and Thomas Woodside, “An Overview of Catastrophic AI Risks,” 预印本, arXiv.org, 2023 年 10 月; Jiaming Ji et al., “AI Alignment: A Comprehensive Survey,” 预印本, arXiv.org, 2025 年 4 月 4 日; Mitre and Predd, Artificial General Intelligence’s Five Hard National Security Problems; Miles Brundage et al., “Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable Claims,” 预印本, arXiv.org, 2020 年 4 月 20 日.

[5] 白宫, “Winning the Race: America’s AI Action Plan,” 2025 年 7 月.

[6] 例如, 参见 Stuart Armstrong, Nick Bostrom, and Carl Shulman, “Racing to the Precipice: A Model of Artificial Intelligence Development,” AI & Society 31, no. 2 (2016): 201–206; The Anh Han, Luis M. Pereira, Tom Lenaerts, and Francisco C. Santos, “Mediating Artificial intelligence Developments Through Negative and Positive Incentives,” PLOS ONE 16, no. 1 (2021 年 1 月 26 日): e0244592; McKay Jensen, Nicholas Emery-Xu, and Robert Trager, “Industrial Policy for Advanced AI: Compute Pricing and the Safety Tax,” 预印本, arXiv.org, 2023 年 2 月 23 日; Robin Young, “Who’s Driving? Game Theoretic Path Risk of AGI Development,” 预印本, arXiv.org, 2025 年 1 月 25 日.

[7] Leonard Dung and Max Hellrigel-Holderbaum, “Against Racing to AGI: Cooperation, Deterrence, and Catastrophic Risks,” 预印本, arXiv.org, 2025 年 7 月 29 日.

[8] Corin Katzke and Gideon Futerman, “The Manhattan Trap: Why a Race to Artificial Superintelligence is Self-Defeating,” 预印本, arXiv.org, 2024 年 12 月 22 日.

[9] Sarah Kreps, “Racing to Clarity: How Accelerating AGI Development Could Enhance Strategic Stability,” 载于 The Artificial General Intelligence Race and International Security (兰德公司, 2025): 5–8.

[10] Nur Ahmed, Muntasir Wahed, and Neil C. Thompson, “The Growing Influence of Industry in AI Research,” Science 379, no. 6635 (2023 年 3 月): 884–886; Nur Ahmed and Neil C. Thompson, “What Should Be Done About the Growing Influence of Industry in AI Research?,” 布鲁金斯学会, 2023 年 12 月 5 日.

[11] 欧洲议会和理事会 2024 年 6 月 13 日关于人工智能的 (EU) 2024/1689 号条例, OJ L, 2024/1689, 2024 年 12 月 7 日.

[12] Luis Garicano and Jesús Saa Requejo, “The Smart Second Mover: A European Strategy for AI,” Silicon Continent, 2025 年 7 月 9 日.

[13] Julian Gerwitz, “Global AI Rivalry Is a Dangerous Game,” Financial Times, 2025 年 7 月 28 日.

[14] George W. Downs, David M. Rocke, and Randolph M. Siverson, “Arms Races and Cooperation,” World Politics 38, no.1 (1985): 118–146.

[15] Lisa Abraham, Joshua Kavner, and Alvin Moon, “A Prisoner’s Dilemma in the Race to Artificial General Intelligence,” 兰德公司, 即将于 2025 年出版.

[16] 该阈值条件是… 有关更多详细信息,请参见 Abraham, Kavner, and Moon, “A Prisoner’s Dilemma in the Race to Artificial General Intelligence”.

[17] Duncan Snidal, “Coordination versus Prisoners’ Dilemma: Implications for International Cooperation and Regimes,” American Political Science Review 79, no. 4 (1985): 923–942.

[18] Drew Fudenberg and Eric Maskin, “The Folk Theorem in Repeated Games with Discounting or with Incomplete Information,” Econometrica 54 (1986 年 5 月): 533–554.

[19] 有关模型的更多详细信息,请参见 Abraham, Kavner, and Moon, “A Prisoner’s Dilemma in the Race to Artificial General Intelligence”.

[20] Mauricio Baker et al., “Verifying International Agreements on AI: Six Layers of Verification for Rules on Large-Scale AI Development and Deployment,” 预印本, arXiv.org, 2025 年 7 月.

转载请注明:《中国社会分红/基本收入研究网》 浏览量:18 views