面向边缘的私有物理人工智能:小型、节能、无处不在

https://www.digitalistpapers.com/vol2/rus

作者:Daniela Rus

麻省理工学院电子工程与计算机科学系(EECS)的教授,并曾担任 MIT 计算机科学与人工智能实验室的主任。

当今的人工智能以其流畅性、创造力和解决问题的能力令人眼花缭乱,但在其背后隐藏着一个日益增长的悖论:我们的机器变得越“智能”,它们对电力的需求就越“饥渴”。训练最大的模型需要消耗数百万千瓦时的电力,而服务于数十亿次查询则需要工厂般大小的数据中心。如果这种轨迹持续下去,人工智能将成为世界上能源最密集的行业之一,给电网带来压力,加剧气候压力,并将经济和地缘政治权力集中在那些控制着庞大计算基础设施的人手中。

然而,另一条人工智能的道路正在打开,这条道路远离越来越大、资源需求越来越高的模型,转向小型、快速、自适应且效率极高的系统。这种新兴的范式,我们称之为面向边缘的私有物理人工智能,指的是直接在边缘运行的智能系统:即在同一个感知、决策和行动的设备上运行。换句话说,计算在设备本地进行,靠近数据生成和行动发生的地方。这些系统被物理地嵌入到世界中,基于物理的计算,能效高,并通过将数据保留在设备上而不是云端来保护隐私。智能不再被束缚于庞大的数据中心,而是可以存在于我们已经在使用的设备中——在我们的口袋里、家里、诊所里;在我们的手机、眼镜、汽车和电器中;甚至在我们尚未发明的设备上——为设备硬件原生开发,在适度的硬件上本地运行,并消耗极低的功率。

“这才是真正具有变革性的人工智能的样子:不是变得越来越大、越来越遥远的智能,而是融入日常生活物理和社会结构的智能。”

这才是真正具有变革性的人工智能的样子:不是变得越来越大、越来越遥远的智能,而是融入日常生活物理和社会结构的智能。变革性人工智能不是为了取代人,而是为了赋能于人,通过高效、可靠、触手可及的技术来扩展个人和社区的能力。

这不是科幻小说。新的架构已经出现,它们不再将人工智能视为蛮力计算,而是将其视为优雅、自适应、受物理学启发、基于动态过程数学的系统。例如,由麻省理工学院率先开发、现由初创公司Liquid AI商业化的液态神经网络[1][2],就是面向边缘的私有物理人工智能的一个主要例子。这些模型紧凑、节能且性能卓越。由于它们具有可证明的因果性,它们学习的是任务本身而非任务的上下文,这使得它们能够更有效地泛化到与训练数据不同的环境和任务变化中。在一个环境中学习的技能可以零样本迁移到完全不同的环境中。例如,液态网络被训练用于无人机解决徒步任务(在夏季的树林中跟随路标),然后被证明可以在冬季、秋季甚至城市环境中无缝地使用相同的技能,而无需重新训练。[3] 当今基于Transformer的模型无法做到这一点;它们需要针对每个新环境进行单独的微调。这种泛化能力,加上它们的紧凑性,使得液态网络成为面向边缘的私有物理人工智能的基础构建块:这些系统小型、快速、可解释且足够安全,可应用于物理世界,如制造业、航空或医疗保健,在这些领域,每一次推理都必须有根据且可解释。液态网络神经元内部的计算灵感来自秀丽隐杆线虫等小型物种神经元的数学,这种线虫仅用302个神经元就实现了卓越的适应性和创造力。[4]

液态神经网络属于一类称为状态空间模型的人工智能模型,这是一个不断发展的领域,正吸引着研究人员和新想法。例如,被称为LinOSS[5]的人工智能模型反映了大脑计算的另一个原理:即包括哺乳动物在内的大脑较大物种特有的谐波振荡特性。LinOSS通过将序列表示为受线性动力学控制的演化状态,高效地捕获长期依赖关系,同时保持计算成本最低,使其成为必须在不依赖云支持的情况下处理连续数据流的嵌入式设备的理想选择。Mamba模型[6]是液态网络的后继者,表明效率不必以牺牲能力为代价。它在标准基准测试中与Transformer直接竞争,同时消耗更少的计算资源,为这样一个世界奠定了基础:在这个世界中,模型的价值不是由万亿参数来衡量,而是由每瓦智能来衡量。

“如果一部手机能够实时观察并描述世界,那么它也可以成为私人导师、医疗分诊助理、实时翻译或个人教练——所有这些都具备私密性、适应性且随时可用。”

这股新的人工智能架构浪潮不仅仅是学术性的。Liquid AI已经开源了液态基础模型,这些模型使用数百个GPU进行训练,其性能与在数万个GPU上训练的模型相当,实现了效率上的巨大飞跃。这些LFM模型可以直接在你的手机上运行。例如,它们可以拍摄一张照片,并立即以惊人的准确性和细节进行描述,在本地高效地提供最先进的视觉-语言性能,而无需调用云端。想象一下这样一个世界:我们可以收集视觉日记并将其压缩成文本描述,而无需牺牲隐私或承担巨大的能源成本。现在想象一副轻巧的眼镜,其动力不是来自云服务器,而是来自设备上的人工智能边缘模型,如液态神经网络。这些人工智能眼镜可以充当盲人和视障人士的实时感知伴侣,描述环境、朗读文本、识别面孔和情绪、帮助定位物体、搭配衣物、提示障碍物等等,所有这些都无需依赖互联网连接。由于智能在本地运行,用户将获得自主性和隐私性:他们周围环境的图像永远不需要离开设备,这在导航家庭、医院或工作场所等个人空间时是一个关键因素。这让我们得以一窥当先进人工智能在边缘运行时可能实现的情景。如果一部手机能够实时观察并描述世界,那么它也可以成为私人导师、医疗分诊助理、实时翻译或个人教练——所有这些都具备私密性、适应性且随时可用。这些能力意味着一个智能无缝融入日常生活的未来。

在不久的将来,高性能智能将普遍地在适度的硬件上运行,其目标是为人工智能实现ARM为处理器所做的贡献:创建可扩展、高效的内核,制造商可以将这些内核嵌入到任何地方,从手机、无人机到电器、医疗设备等等。这些进步共同指向一个未来:人工智能不再被锁在遥远的服务器中,而是分布式的、紧凑的、因果的、无处不在的——一种属于每个人的智能形式。各行各业将减少对昂贵基础设施的依赖,并且随着初创公司和小型组织获得人工智能边缘能力,创新将蓬勃发展。

想象一下当边缘人工智能变得像电力一样基础时的世界。手机成为个人日记和助手,内置的人工智能适应其主人,管理日程、教授技能和支持身心健康。无人机使用设备上的边缘人工智能规划和控制系统安全导航并递送包裹。农民使用带有本地人工智能的太阳能设备来提高产量,而无需上网。小型诊所或农村地区的临床医生可以使用边缘人工智能支持,为患者提供最先进的诊断和治疗方案,这些支持通过最新的临床试验和治疗方案信息进行了微调。而所有这一切都以私密、高效的方式完成,无需调用云端。

甚至能源系统也能从边缘人工智能中受益,因为分布式人工智能有助于稳定可再生能源电网、预测需求和优化存储。公司将不再出租云计算资源,而是授权高效的人工智能内核,就像ARM改变了处理器一样。正如个人计算机将价值从大型机操作员转移到软件开发人员一样,高效的本地人工智能将把价值从集中式计算提供商转移到应用程序、服务和人机协作的构建者身上。这将是一个人工智能无处不在的世界,赋能于个人、行业和社会。在边缘普遍存在的推动下,全新的市场将应运而生。

“正如个人计算机将价值从大型机操作员转移到软件开发人员一样,高效的本地人工智能将把价值从集中式计算提供商转移到应用程序、服务和人机协作的构建者身上。在边缘普遍存在的推动下,全新的市场将应运而生。”

在手机上私密运行的个人人工智能助手的普及,也可能通过将世界一流的辅导、教练和医疗保健带给数十亿因地理位置或贫困而被排除在外的人,从而缩小机会差距。由于这些模型在本地运行,它们带来了赋能而不带来监控:用户无需为了获取智能而交出数据。随着人工智能成为一种与个人共存的工具,而不是从个人那里榨取的服务,对人工智能的信任可能会上升。与此同时,新的人工智能素养鸿沟将会出现。问题将不再是谁能接触到人工智能,而是谁知道如何有效使用它。

投资于广泛人工智能教育的社会将会蓬勃发展;而那些没有投资的社会可能会发现自己分裂为被赋能的AI用户和被遗忘的群体。

边缘人工智能的定义性特征是它的无处不在、能效和隐私。智能将以每瓦特、每芯片、每设备的Token数量来衡量。它将融入日常生活,在全球范围内推动生产力、创造力和包容性。边缘人工智能将比历史上任何创新都更广泛地重新分配智能的益处。

人工智能正处于一个拐点。多年来,进步的衡量标准一直是越来越大的模型和对数据中心越来越高的要求,将智能推向工业规模的基础设施。但人工智能的未来不会仅仅依赖于规模。它还将由能力、效率、适应性和无处不在所定义——由无处不在、即时、私密的智能所定义。正如个人计算机将价值从大型机操作员转移到软件开发人员一样,高效的本地人工智能将把价值从集中式计算提供商转移到应用程序、服务和人机协作的构建者身上。在边缘普遍存在的推动下,全新的市场将应运而生。面向边缘的私有物理人工智能就是通向那个未来的道路:将计算从遥远的服务器转移到我们手中、家中和工作场所的设备上,在那里它可以直接赋能于个人、公司和组织,同时降低成本、延迟和能源消耗。

这种转变具有深远的经济意义。通过将智能与集中式数据中心解耦,边缘人工智能将价值创造从少数基础设施提供商重新分配给无数可以将智能直接嵌入自身系统的企业、组织和社区。人工智能的经济学从大规模租赁云计算转向部署高效的、专门构建的模型,这些模型以接近零的边际成本在本地运行。这种转变降低了初创公司、小型企业以及从医疗保健、教育到交通、金融、能源、农业和公共服务等整个行业的准入门槛。面向边缘的私有物理人工智能的兴起将 democratize 智能的获取,将生产率的提升分散到全球经济中,同时减少成本和控制在云端的集中。


参考文献

[1] Ramin Hasani, Mathias Lechner, Alexander Amini, Daniela Rus, and Rady Grosu, “Liquid Time-Constant Networks,” in Proceedings of the AAAI Conference on Artificial Intelligence 35, no. 9 (2021): 7657–7666.

[2] www.liquid.ai

[3] Hasani, Lechner, Amini, Liebenwein, et al., “Closed-Form Continuous-Time Neural Networks.”

[4] Oliver Hobert, “The Neuronal Genome of Caenorhabditis elegans,” in WormBook: The Online Review of C. elegans Biology (WormBook, 2005–2018).

[5] Konstantin Rusch and Daniela Rus, “Oscillatory State-Space Models,” paper presented at the Thirteenth Conference on Learning Representations (ICLR 2025), Singapore, April 2025.

[6] Albert Gu and Tri Dao, “Mamba: Linear-Time Sequence Modeling with Selective State Spaces,” First Conference on Language Modeling, preprint, arXiv, May 2024.

转载请注明:《中国社会分红/基本收入研究网》 浏览量:4 views