https://www.digitalistpapers.com/vol2/agrawalgans
作者:Ajay Agrawal 和 Joshua S. Gans
Ajay Agrawal(阿贾伊·阿格拉瓦尔)
均为多伦多大学罗特曼管理学院教授,创造性破坏实验室的创始人,美国国家经济研究局的研究员。
变革性人工智能将产生一场天才供应冲击:大量、廉价、快速的智能体,在许多领域都能超越人类。但社会很可能对这种非凡但陌生的新能力适应得太慢。在这篇文章中,作者探讨了两种政策——监管沙盒和监管假期——它们可以帮助公司、监管机构和个人学习如何使用这些强大的新工具并有效利用它们。
一、天才供应冲击
2023年,一组研究人员着手构建一个单一的基准来测试人类知识的全部广度和深度。结果是“人类的最后一次考试”——一个包含2500个问题的严峻考验,涵盖大学水平的数学、物理、化学、工程、生物、法律、哲学、经济学和文学。与测试孤立任务中狭窄能力的传统AI评估不同,这个基准模拟了博士资格考试与通才口试相结合的挑战。问题是长形式的、开放式的。要想取得好成绩,AI不仅要知道,还要理解。成功需要那些我们通常与最高水平思维相关联的能力:灵活的推理、概念抽象以及跨领域转移知识的能力。直到最近,还没有任何机器能够接近通过。
“鉴于发展的速度,到本文发表时,这些能力将早已过时。但即使是现在,一个新的天才级能力来源正在显现:不是数百万的普通工人,而是按需提供的天才级AI工具。”
2025年7月,xAI开发的人工智能系统Grok 4在此基准上得分约为44.4%,与表现顶尖的人类研究生科学家相差无几。[1] 大约在同一时间,OpenAI的GPT和谷歌DeepMind的Gemini模型在国际数学奥林匹克竞赛中取得了金牌级别的表现。[2] 与此同时,Meta首席执行官马克·扎克伯格组建了超级智能实验室,并以九位数的薪酬 package 追求顶尖研究人员,部分动机是他有迹象表明他们的人工智能开始自我改进——这促使他押下重注于超级智能。[3] 鉴于发展的速度,到本文发表时,这些能力将早已过时。但即使是现在,一个新的天才级能力来源正在显现:不是数百万的普通工人,而是按需提供的天才级AI工具。
这些在2025年实现的进步,被其他专家(包括AI基础模型公司Anthropic的联合创始人兼首席执行官达里奥·阿莫代伊)所预见,他将即将到来的系统描述为提供“数据中心里的一个天才之国”,在那里,天才“比诺贝尔奖得主在大多数相关领域——生物学、编程、数学、工程、写作等——都更聪明”。[4] 他推测,这些系统不仅仅是自动化常规任务;它们以数字规模跨领域综合知识、提出和批判解决方案。与人类专家不同,它们廉价、丰富且不知疲倦。
考虑三个典型的例子:
跨学科问题解决:一家生物技术初创公司的团队将一个全基因组关联数据集和整个药物化学文献输入一个AI智能体。几小时内,该智能体为一种罕见疾病提出了三种化学上新颖、可合成的候选药物——这些任务以前需要生物学、化学和信息学领域的博士级多年努力,因此,考虑到罕见病相关的小市场,其成本可能超过收益。
实时监管草案起草:一个正准备下周谈判的贸易部要求该智能体分析4000页的世界贸易组织先例,识别与半导体出口管制相关的漏洞,并起草符合其他国际承诺的条约语言以堵住这些漏洞。它在几分钟内返回了一个法律上连贯的初稿。
复杂系统设计与验证:一家土木工程公司上传了一座桥梁的激光雷达扫描数据、传感器数据、区域气候预测以及不断发展的安全规范。该智能体生成了一份可执行的改造计划,包括物料清单、时间表和风险评估,与多学科工程咨询公司的输出相匹配。
在每个例子中,AI智能体压缩了认知劳动的整个价值链,说明了为什么我们将变革性AI的潜力视为一种供应冲击。当此类工具以低成本广泛可用时,价值创造中的瓶颈从解决问题转变为决定解决哪些问题以及测试提议的解决方案是否真正有效。
二、需求调整缓慢
天才供应冲击并不会自动转化为经济影响。在短期内,组织面临固定的合同、工作流程、资本存量,以及关键的验证管道。当低成本的天才在测试其提案的能力到位之前到来时,大部分新的问题解决能力将被闲置。我们的配套论文《按需天才》[5] 将这种动态建模为一次性的供应冲击,随后是一个漫长的调整期。公司必须先建立互补的组织资本——数据基础设施、评估框架、责任制度——然后才能大规模部署天才级智能体。重要的是,他们需要精确地弄清楚这些天才能为他们做什么,因为以前他们非常稀缺。现在,他们的应用变得严重“受想象力限制”。
“公司必须先建立互补的组织资本——数据基础设施、评估框架、责任制度——然后才能大规模部署天才级智能体。”
历史提供了一个有用的类比。Zvi Griliches 记录了20世纪30年代杂交玉米的传播,这项突破极大地提高了产量,但在各地区传播缓慢。[6] 爱荷华州的早期采用者看到了巨大的生产力提升,但其他地方的农民犹豫不决,因为品种需要当地适应,而且农民希望有证据表明新种子在他们的特定条件下有效。采用需要实验、示范田和同行学习。天才级AI也将如此。AI提出的解决方案可能在纸面上令人信服,但由于数据质量、治理或人为因素而在生产中失败。组织将需要进行实验——试点、审计和A/B测试——并且他们将需要机制来分享关于什么有效、什么无效的经验教训。
除了公司层面的采用决策标准,面向消费者的应用可能因消费者偏好而面临额外障碍。除了价格和安全性,用户可能重视过程属性,如人际接触、可解释性、可争议性、隐私保证、本地数据控制以及选择退出的能力。即使天才AI在准确性上明显更高,如果决策方式违反了这些过程偏好,采用也可能会停滞。
如果没有针对性的政策,私营部门可能会对实验投资不足。公司担心投资试验将使能够搭便车的竞争对手受益。监管不确定性进一步阻碍了实验:在敏感领域部署AI系统通常需要应对不明确或不断变化的法律义务。因此,实验的回报会很高,但实验的数量可能很低。
“如果没有关于安全性、投资回报率和工作流程契合度的可信的本地证据,CFO们将不会为互补品提供资金,监管机构不会澄清规则,付款人不会报销,供应商也不会就标准达成一致。”
除了通过实验进行验证之外,几个结构性障碍减缓了传播:分散且质量低下的数据;遗留IT和互操作性问题;稀缺的互补资本(传感器、机器人、安全云);网络安全和隐私合规负担;不明确的责任和保险范围;偏向于维持现状流程的采购和报销规则;AI编排和变革管理方面的人才短缺;以及关于知识产权和数据权利的不确定性。这些摩擦相互强化。如果没有关于安全性、投资回报率和工作流程契合度的可信的本地证据,CFO们将不会为互补品提供资金,监管机构不会澄清规则,付款人不会报销,供应商也不会就标准达成一致。精心设计的试点会产生运营指标和因果证据,从而释放互补资本、消除规则制定中的风险并协调生态系统,将许多缓慢的系统性瓶颈转变为可解决的工程和治理任务。
三、当天才AI丰富时会发生什么?
我们在配套论文《按需天才》中开发了一个正式模型,阐明了突然出现的大量、接近零边际成本、高水平认知如何改变劳动力市场和产品。[7] 在短期内,供应压倒需求。公司尚未重新组织任务或投资于互补基础设施,因此天才AI可以执行的问题解决任务仅限于已经被认为是前沿问题的狭窄子集。结果,额外的智能在很大程度上将人类天才取代到前沿领域,而暂时让常规知识工作者不受影响。
然而,从长远来看,如果AI智能体在广泛的知识工作中相对于人类工人具有绝对优势,我们的模型预测,许多以前被归类为“常规”的任务将被重新归类为“天才”任务。随着解决这些问题的成本下降,前沿问题的储备扩大;曾经被认为过于复杂或无利可图的任务变得可行。劳动分工向更多的监督、指导和创造性探索转变。这种动态呼应了熊彼特的创造性破坏:一种优越的生产要素的到来扩展了生产可能性边界,但也引发了资源和技能的重新配置,这对个人和地区来说可能是痛苦的。
两个主要机制驱动了这些预测。首先,任务替代。天才AI智能体可以比人类更准确、更快速地执行认知工作流程中的许多步骤。在短期内,这种替代仅限于存在可编码数据且制度约束允许机器输出被采取行动的问题解决任务。从长远来看,随着公司投资于数据、数字基础设施和工作流程重新设计,替代范围扩大。其次,任务重新分类。随着解决复杂问题的边际成本下降,公司将发现将天才AI应用于以前因过于困难或规模太小而未被涉及的领域是有利可图的。这种重新分类效应反映了我们之前例子中制药初创公司所承担的研究问题范围的扩大,并且类似于农业中从开放授粉种子到杂交种子的转变。杂交玉米创造了以前不存在的新高产品种;天才AI将创造新的研究、设计和分析问题类别。
“杂交玉米创造了以前不存在的新高产品种;天才AI将创造新的研究、设计和分析问题类别。”
该模型的预测也具有分配含义。拥有深厚人类天才储备和强大互补资本的国家或公司可能在短期内更有效地部署AI天才,可能获得先发优势。问题向天才任务的重新分类意味着那些拥有现有前沿知识的人可能会发现他们的比较优势得到加强。相反,缺乏数字基础设施或高技能人才的地区可能会经历常规工人的替代,而没有相应的生产率提高。因此,本地能力与替代-重新分类动态之间的相互作用塑造了天才供应冲击带来的收益如何分配。
四、潜在的社会无效率
即使私营部门对天才供应冲击的反应符合我们模型的预测,结果也可能是社会无效率的。我们概述了三个原因。
关于问题分类的信息不足。当天才认知的成本下降时,公司必须决定哪些任务最好留给常规工人,哪些任务应该重新分类为受益于专家问题解决能力的天才任务。这需要关于相对生产率的实验和学习。每个公司的实验都有溢出效应:当一个组织发现法律起草任务可以通过天才智能体增强时,其竞争对手可以从该经验中学习。然而,公司分享结果或见解的激励有限。这是一个经典的信息外部性,类似于农业采用。Griliches的杂交玉米研究记录了农民在种植昂贵的新种子之前如何等待观察邻居的产量。[8] 如果公司将这些见解视为专有,关于什么算作天才任务的信息将比社会理想的速度传播得更慢。
对实验的预防性限制。随着AI系统能力的增强,对安全、错误信息、劳动力替代和一致性的担忧可能会加剧。2023年3月,一封由著名AI研究人员和企业家签署的公开信呼吁暂停训练比GPT-4更强大的系统六个月,理由是“只有在确信其影响将是积极的且风险可控时,才应开发强大的AI系统”。[9] 一些司法管辖区可能会通过施加预防性限制来回应,阻止公司在现实世界中测试AI。从社会角度看,此类限制可能会阻止有益用途的发现,并减缓安全数据的积累。它们也可能将实验推入封闭的企业或国家实验室,限制了透明度和经验教训的传播。
“监管可能向任一方向犯错:过于严格,扼杀创新和传播;或过于宽松,未能内化外部性,如隐私泄露、算法偏见、工作替代或对第三方造成无补偿成本的系统性风险。”
除了由于对实验的预防性限制可能导致采用不足而产生社会无效率外,社会无效率也可能由于过度采用而产生,例如,由于缺乏对不安全使用的限制。换句话说,监管可能向任一方向犯错:过于严格,扼杀创新和传播;或过于宽松,未能内化外部性,如隐私泄露、算法偏见、工作替代或对第三方造成无补偿成本的系统性风险。
制度惯性与行政瓶颈。现有的监管机构可能不具备快速评估复杂AI系统的专业知识或资源。批准新的应用可能成为一个瓶颈,即使好处显而易见,也会延迟部署。在医疗保健或金融等高度监管的行业,行政积压可能会减少对天才认知的有效需求。如果没有简化的流程或专门的监管沙盒,规避风险的行政人员可能会默认延迟或拒绝申请。
五、政策干预的理由
鉴于这些社会无效率,有理由采取主动政策来促进有益的实验,同时防止伤害。两个原则指导干预。
首先,鼓励实验,同时保留可选择性。在一个技术具有根本不确定性的世界里,政策制定者应促进受控实验。实验揭示了哪些任务可以被重新归类为天才任务、替代的成本和收益,以及互补投资的设计。然而,由于结果不确定且可能涉及社会危害,实验的结构应保留政策可选择性:监管机构必须能够根据证据在事后收紧或放松规则。[10] 同时,由于不确定性,实验的初始范围应该有限:没有人,包括监管机构、公司或整个社会,知道鼓励实验和减轻危害之间的最佳平衡。通过从低风险环境中的小规模开始,并通过实验收集证据,政策制定者能够了解采用不足和过度采用的外部性,从而随着时间的推移做出更明智的调整。
“通过从低风险环境中的小规模开始,并通过实验收集证据,政策制定者能够了解采用不足和过度采用的外部性,从而随着时间的推移做出更明智的调整。”
其次,促进传播并减少采用滞后。天才AI的许多好处只有在互补资本和社会信任赶上之后才会实现。降低信息壁垒、建立共享知识基础设施和传播最佳实践的政策可以加速这种传播,增加天才AI的收益被广泛分享而不仅仅是被先行者获取的可能性。此外,消费者偏好通过体验内生地演变:精心设计的实验可以更新信念并提高接受度,而早期的失误可能会产生显著的负面信号,从而减缓整个经济体的传播。因此,结构良好的实验制度既是信息产品,也是监管工具:例如,通过运行分层的、基于同意的试点,结合披露、人机交互和追索机制中的随机变化,监管机构和公司可以共同了解人群对自动化的接受意愿,识别过程效用的异质性,并校准能够在不侵蚀信任的情况下扩大规模的防护措施。
这些原则激发了允许实验和传播,同时保留在出现危害时进行干预的选择的政策工具的设计。在本文的其余部分,我们讨论两种广泛的方法:监管沙盒和监管假期。监管沙盒是在密切监督下授予的、有时间限制的、针对特定公司的豁免。准入受到限制,范围狭窄,参与者承诺加强监控、披露和防护;作为交换,他们获得定制的救济,以在真实环境中进行严格限制的试验。相比之下,监管假期是更广泛的、基于类别的、临时的豁免,适用于满足基本资格标准的许多部署者。假期通过避免逐案批准来降低交易成本,并实现大规模的平行实验,但提供比沙盒更少的定制监督。简而言之,沙盒用覆盖率换取控制权;假期用控制权换取覆盖率。
七、监管沙盒
概念与证据
监管沙盒起源于金融服务领域,作为受控环境,公司可以在监管机构的监督下测试创新产品或服务。在沙盒中,监管机构向参与公司授予有时间限制的豁免或减轻特定义务,密切监控其活动,并利用所得数据决定是否需要修订现有规则。此后,这个概念已应用于AI。2015年,英国金融行为监管局推出了首个金融科技沙盒。[11] 此后,欧盟、阿拉伯联合酋长国和几个美国州宣布了AI沙盒。例如,《欧盟人工智能法案》第57条要求每个成员国建立一个AI沙盒或参与多国沙盒;西班牙于2022年成为第一个设立此类沙盒的国家,其他成员国必须在2026年8月之前设立。[12] 犹他州2025年《人工智能政策法案》创建了美国首个AI沙盒,[13] 包括康涅狄格州、俄克拉荷马州和德克萨斯州在内的其他州也提出了类似的立法。
早期实施的证据表明,沙盒可以促进学习。国际隐私专业人员协会指出,沙盒为公司测试AI创新提供了一个受控环境,同时监管机构观察临时豁免是否应成为永久性豁免。[14] 经济合作与发展组织建议政府利用实验提供一个受控环境,在其中可以测试和扩展AI系统。[15] 阿联酋于2019年成立的法规实验室为测试包括AI在内的创新技术提供临时许可证,并利用这些试验的经验教训为立法提供信息。[16] 新加坡利用沙盒收集关于生成式AI用于营销和客户参与的见解。[17] 沙盒可以通过减少监管不确定性、允许公司与监管机构合作以及产生关于AI系统影响的公开证据来加速创新。
“沙盒可以通过减少监管不确定性、允许公司与监管机构合作以及产生关于AI系统影响的公开证据来加速创新。”
设计原则
为了最大化AI沙盒的收益,政策制定者应考虑几个设计原则。第一,广泛的资格:沙盒对广泛的公司开放——大型现有企业、初创公司、公共机构和非营利组织——可以使监管学习更好地反映不同的用例,而不仅仅是狭窄的一套商业上可行的应用。第二,明确的进入和退出标准:监管机构明确什么条件使项目有资格进入沙盒,以及什么触发毕业或驱逐,可能会增加清晰度,并减少沙盒成为 indefinite 豁免的可能性。第三,强制披露:参与的条件是公司与监管机构以及适当时与公众分享绩效指标、安全事件和人口影响评估,社会将从增加的信息中受益。第四,成比例的监督:监管机构根据应用的风险状况调整监控强度,可以更好地校准风险-回报监管机制,从而更好地服务于公共利益。最后,日落条款增加了沙盒不会成为替代监管制度的可能性;沙盒实验的结果应直接反馈到更广泛监管框架的演变中。
收益与风险
沙盒解决了几种监管和市场失灵。通过提供监管救济和明确性,它们降低了实验的私人成本,鼓励公司测试一些他们可能避免的AI系统。通过要求数据共享和监管机构参与,它们可能减少信息外部性:一家公司试验的经验教训可以为适用于整个行业的规则提供信息。因为沙盒可以包括中小企业,它们可能有助于民主化创新,并防止大型现有企业垄断学习。然而,沙盒也带来风险。它们可能使那些拥有与监管机构接触的法律和技术能力的资源充足的公司受益,可能将资源贫乏的参与者排除在外。存在一种危险,即沙盒成为事实上的安全港,允许产品逃避全面监督。
“因为沙盒可以包括中小企业,它们可能有助于民主化创新,并防止大型现有企业垄断学习。”
此外,要求与竞争对手分享实验结果的要求可能会扼杀实验。这一挑战反映了专利政策中的张力,创新者通过披露获得保护或特权;然而,在补偿参与者与强制信息共享之间找到适当的平衡充满了困难。[18] 解决这种张力的一种方法可能是要求参与者分享模型输出和针对特定指标的绩效(例如,医疗诊断准确性、客户满意度得分、自动化任务完成的比例),包括全面记录每个指标的所有故障模式及其频率,而无需披露模型权重、训练数据或编排方法。
如果要求公司完全披露其实验的所有要素,它们可能无法获得足够的补偿以弥补所承担的风险和成本;这可能会阻碍他们对试验的投资,因为竞争对手可以搭便车共享知识。另一方面,允许参与者从豁免中保留过多收益,则存在事后创造不公平优势或偏袒的风险,从而破坏公平和公众信任。这种权衡可能使得在需要广泛参与的情况下,监管假期更可取:它们通过均匀地向部署者提供豁免来规避选择性补偿的需求,同时仍然利用透明度要求确保社会学习,而无需面对同样的披露-补偿困境。我们接下来转向监管假期。
八、监管假期
起源与定义
监管假期与沙盒在两个方面的区别:它广泛适用而不是仅适用于选定的参与者,并且它事先放宽义务,而不是提供定制豁免。[19] 在监管假期下,新技术投资者或部署者在预先指定的期限内免于某些法规的约束。这个概念源于网络行业:例如,欧盟第二号天然气市场指令允许建设新管道产能的投资者享有“监管假期”。[20] 对价格上限监管与监管假期进行比较的实验证据发现,假期可以提高投资的预期回报,但也可能产生相对于社会最优水平的投资不足的激励。[21] 假期的简单性使其具有吸引力——当局可以承诺执行,并且其执行成本低——但其范围广泛意味着错误可能影响许多用户。
“对价格上限监管与监管假期进行比较的实验证据发现,假期可以提高投资的预期回报,但也可能产生相对于社会最优水平的投资不足的激励。”
在AI背景下,监管假期将意味着对一整类低风险应用临时、有时限地暂停某些规则。例如,卫生部可以允许医院部署AI助手执行行政编码和日程安排任务,而无需事先认证,前提是他们报告错误和未遂事件。劳工部可以允许公司在一个要求披露结果和事后审计的假期下使用AI工具起草非约束性合同。与沙盒相比,参与不需要特别申请或定制监督;在指定领域运营的任何公司都可以利用假期。
政策提案与争议
由于假期范围广泛,它们在政治上存在争议。2025年,美国预算法案中的一项条款提议禁止各州在长达十年内监管AI。[22] 支持者认为,暂停将防止各州法律的 patchwork,并允许公司专注于创新。反对者反驳说,给AI开发者一个十年的“监管假期”将让消费者得不到保护,并使占主导地位的公司能够在没有问责制的情况下运营。参议院最终以99比1的投票结果删除了该条款,表明国会不会授予AI行业如此全面的豁免。这一事件凸显了广泛假期的吸引力和危险:它们可以鼓励投资,但也可能破坏公众信任并抢跑必要的保障措施。
负责任地应用假期
为了使AI监管假期有效,它们通常必须范围狭窄并设计有防护措施。首先,限制范围:在广泛条件下,假期可能最适合低风险应用,如行政任务或研究合作,而不太适合高风险用途,如临床诊断、信用评分或刑事司法。其次,要求数据透明度:在某些条件下,受益于假期的公司可能需要向监管机构以及适当时向公众披露使用统计、人口影响和安全事件。第三,建立独立监督:在某些条件下,要求一个监督委员会监控结果、调查投诉并建议假期应延长、修改或终止,其社会收益可能超过成本。第四,包括日落条款:在某些条件下,社会可能受益于要求假期在固定期限后自动到期;政策制定者随后可以利用积累的证据来决定是否将相关活动正常化、限制或禁止。最后,国际协调:由于AI市场是全球性的,社会可能受益于要求实施假期的国家共享数据并协调标准,以防止有害的监管套利。也就是说,在其他条件下,要求公司与竞争对手共享信息的成本可能会如此显著地抑制私营部门对实验投资的激励,以至于这一要求的成本超过其收益。例如,可以想象美国的 foundation model 公司,如OpenAI和Anthropic,如果被迫与竞争对手共享其模型权重,它们在筹集实验和扩展模型所需的大量资本方面的努力将受到严重阻碍,以至于它们将无法与像谷歌、微软及其中国同行这样资本雄厚的现有企业竞争。
“在广泛条件下,假期可能最适合低风险应用,如行政任务或研究合作,而不太适合高风险用途,如临床诊断、信用评分或刑事司法。”
由于可能类似于在税收竞争中观察到的动态的司法管辖区竞争,可能会导致过于宽松的监管,遵循这些预防性设计原则可能被证明具有挑战性。[23] 随着司法管辖区竞相吸引公司和刺激经济活动,它们可能会降低监管标准或提供更慷慨的豁免以获得竞争优势,从而造成一场“竞相逐底”的竞赛,其中管理AI相关风险的集体利益受到损害。公司可以迁移到监督最不严格的司法管辖区,推动偏离协调标准的激励,并可能导致对隐私侵犯或系统性故障等负外部性的保障不足。这可能会使确保AI实验平衡方法的努力复杂化。
九、结论
变革性人工智能承诺带来一代人一次的认知能力供应冲击。然而,正如历史所教导的,技术很少在一夜之间重塑经济。只有当组织有能力和激励来测试和采用其输出时,天才级AI才会创造价值。在没有干预的情况下,私人行为体将对实验投资不足,监管机构将学习得太慢。监管沙盒和监管假期提供了补充工具来加速这种学习。沙盒允许监管机构和公司通过定制豁免进行受控实验,为新颖的AI应用生成高质量证据。假期提供了更广泛的、有时限的特定规则暂停,使快速传播成为可能,同时仍然收集数据并保留事后干预的选择。这两种工具都需要精心设计,以平衡加速生产力提升与安全性。
通过拥抱实验并将反馈纳入不断发展的规则,政策制定者可以缩短天才级AI的到来与其经济影响之间的滞后。目标不是选择赢家或给AI部门免费通行证,而是创造一个监管环境,在这个环境中,实验得到奖励,学习得到分享,丰富认知的生产力收益以尽可能快的速度归于社会,同时不过度损害安全性。
“目标不是选择赢家或给AI部门免费通行证,而是创造一个监管环境,在这个环境中,实验得到奖励,学习得到分享,丰富认知的生产力收益以尽可能快的速度归于社会,同时不过度损害安全性。”
参考文献
[1] Deni Ellis Béchard, “New Grok 4 Takes on ‘Humanity’s Last Exam’ as the AI Race Heats Up,” Scientific American, 2025年7月11日.
[2] Kenrick Cai and Jaspreet Singh, “Google Clinches Milestone Gold at Global Math Competition While OpenAI Also Claims Win,” Reuters, 2025年7月22日.
[3] Johana Bhuiyan, “Zuckerberg Claims ‘Superintelligence Is Now in Sight’ as Meta Lavishes Billions on AI,” The Guardian, 2025年7月30日.
[4] Dario Amodei, “Machines of Loving Grace: How AI Could Transform the World for Better,” Dario Amodei博客, 2024年10月.
[5] Ajay Agrawal, Joshua S. Gans, and Avi Goldfarb, “Genius on Demand: The Value of Transformative Artificial Intelligence,” 美国国家经济研究局工作论文, 2025.
[6] Zvi Griliches, “Hybrid Corn: An Exploration in the Economics of Technological Change,” Econometrica 25, no. 4 (1957年10月): 501–522.
[7] Agrawal, Gans, and Goldfarb, “Genius on Demand.”
[8] Griliches, “Hybrid Corn.”
[9] Jyoti Narayan et al., “Elon Musk and Others Urge AI Pause, Citing ‘Risks to Society,’” Reuters, 2023年4月5日.
[10] Joshua S. Gans, “How Learning About Harms Impacts the Optimal Rate of Artificial Intelligence Adoption,” Economic Policy 40, no. 121 (2025年1月): 199–219.
[11] 英国金融行为监管局, “Regulatory Sandbox,” 2015年11月.
[12] Richard Sentinella, “How Different Jurisdictions Approach AI Regulatory Sandboxes,” IAPP, 2025年5月14日.
[13] Stuart D. Levi et al., “Utah Becomes First State to Enact AI-Centric Consumer Protection Law,” Skadden Insights, 2024年4月5日.
[14] Sentinella, “How Different Jurisdictions Approach AI Regulatory Sandboxes.”
[15] 经济合作与发展组织, Regulatory Sandboxes in Artificial Intelligence, OECD Digital Economy Papers No. 356 (OECD Publishing, 2023年7月).
[16] 阿拉伯联合酋长国, “Regulatory Sandboxes in the UAE,” Digital UAE, 更新于2024年10月14日.
[17] Digital Policy Alert, “Singapore: Launched Generative AI Evaluation Sandbox for SMEs (Launched February 7, 2024),” 访问于2025年9月29日.
[18] Kenneth Arrow, “Economic Welfare and the Allocation of Resources for Invention,” 载于 Richard Nelson 编, The Rate and Direction of Inventive Activity: Economic and Social Factors (Princeton University Press, 1962); Suzanne Scotchmer, “Standing on the Shoulders of Giants: Cumulative Research and the Patent Law,” Journal of Economic Perspectives 5, no. 1 (1991年冬季): 29–41.
[19] Joshua S. Gans and Stephen P. King, “Access Holidays and the Timing of Infrastructure Investment,” Economic Record 80, no. 248 (2004年3月): 89–100.
[20] Bert Willems and Gijsbert Zwart, “Regulatory Holidays and Optimal Network Expansion,” TILEC Discussion Paper no. 2016-008, CentER Discussion Paper no. 2016-015 (2016年4月).
[21] Bastian Henze, Charles Noussair, and Bert Willems, “Regulation of Network Infrastructure Investments: An Experimental Evaluation,” Journal of Regulatory Economics 42, no. 1 (2012年2月): 1–38.
[22] Rebecca Bellan, “US Senate Removes Controversial ‘AI Moratorium’ from Budget Bill,” TechCrunch, 2025年7月1日.
[23] John D. Wilson, “A Theory of Interregional Tax Competition,” Journal of Urban Economics 19, no. 3 (1986年5月): 296–315; Michael P. Devereux, Ben Lockwood, and Michaela Redoano, “Do Countries Compete over Corporate Tax Rates?,” Journal of Public Economics 92, no. 5–6 (2008年6月): 1210–1235.
转载请注明:《中国社会分红/基本收入研究网》 浏览量:6 views