尊严赤字:为何人工智能政策框架未能切中要害

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6580762

拉克希米·皮莱·古普塔
HAF 实验室工作论文 WP-HAI-1 | Ammara 科技公司 | 2026 年 4 月

执行摘要

全球人工智能政策几乎完全在劳动经济学的框架内运作。各国政府统计面临风险的岗位数量,设计技能再培训渠道,辩论全民基本收入,争论哪些行业会复苏、哪些不会。即使是对人工智能经济影响最深刻的批评者,例如达龙·阿西莫格鲁关于”错误类型的人工智能”的研究,也仍然在争论经济产出的分配问题。本文认为,这个框架本身就是问题所在。

人工智能规模性颠覆的实际牺牲品并非就业。而是意义感:即个人的判断、努力和存在被其自身及其所属社群体验为重要的社会状态。意义感并非人工智能伦理讨论至今所援引的狭义尊严——那种尊严通常意味着免于偏见或免于监视。意义感是结构性的、关系性的和分布式的。它并非在孤立的交易中产生或消亡,而是在社群用以认可人类贡献的社会架构中产生或消亡。

这一点在全球南方,尤其是在印度,表现得最为突出。在印度,意义感并非西方治疗文化中那种个体化的概念,而是深深嵌入在种姓、家庭和社群生态之中。当人工智能取代了班加罗尔的软件工程师或孟买的律师助理时,它夺走的不仅仅是收入。它夺走了那份工作所承载的社会辨识度:在家庭等级中的地位、在社群中的权威、以及对那个几代人以来用以组织自我价值的”你是做什么工作的?”问题的回答。

本文认为,围绕岗位流失设计的政策将积极加剧尊严赤字,因为它将人视为有待重新吸收进市场的经济单元,而非嵌入认可体系中的关系性存在。我转而提出一套关系性治理原则,将保护人类贡献的社会架构本身作为一个政策目标。

第 2 页

一、劳动框架及其局限

现代史上每一次重大技术颠覆都催生了围绕劳动力组织的政策回应。19 世纪初,当纺织业的机械化导致英国手摇织布工人失业时,政治辩论围绕工资、工厂工时以及对无法就业的穷人的社会救济展开。一个世纪后,当电气化重组制造业时,政策体系制定了工作场所安全规范、集体谈判结构,并最终推出了失业保险。自 20 世纪 80 年代起,当计算机化掏空了文职和中层管理岗位时,政策回应是劳动力再培训、社区大学扩招,并最终提出了”知识经济”这一说法,作为待业工人培训后应去向的目的地。在每一种情况下,颠覆都被视为劳动力市场的供需错配,而政策解决方案就是帮助工人匹配新的需求。

对于那些颠覆而言,这种框架并非不合理。卢德运动及其政策后继者提出了一个真正紧迫的问题:谁获得了技术生产力的收益?失业工人通过何种机制在转型中生存下来?劳动经济学为政策制定者提供了易于处理的工具:就业率、工资水平、技能分类体系、再培训项目的成功指标。这个框架之所以有效,是因为它所回应的颠覆主要影响的是体力劳动和文书工作。失业的织布工可以再培训成为工厂操作员。被会计软件取代的簿记员可以再培训成为系统管理员。被重新配置的市场所吸收的逻辑至少是 plausible(合理的)。

我认为,这种逻辑在人工智能面前完全失效,而且不仅仅是因为人工智能自动化的任务范围更广。这种失效是结构性的。在技术颠覆的历史上,技术首次直接替代了那些证明劳动经济学框架自身偏好终点为合理的认知、创造和判断密集型工作。知识经济不再是目的地了。生成式人工智能系统已经在律师资格考试模拟中得分进入前 10%,正确回答了约 90% 的医疗执照考试问题,并且在标准化软件工程基准测试中,从 2023 年解决 4.4% 的问题发展到 2024 年底解决 71.7% 的问题。再培训的管道通向一个人工智能早已等候多时的平台。

主流人工智能政策最严肃的批评者已经开始注意到这个框架正在吱吱作响。达龙·阿西莫格鲁颇具影响力的”错误类型的人工智能”论点认为,当前的人工智能投资正被导向劳动力替代而非劳动力增强,而不同的投资组合可能为工人带来更好的结果。这是对技术乐观主义共识的重大挑战。但我认为,即使是阿西莫格鲁的批评也仍然停留在劳动经济学框架内:它仍然在问,在人工智能重组后的市场中,如何最大化人类的经济参与。它没有问的问题是:当有意义的社会状态不再由经济生产性劳动的行为来保障时,人类的意义感会变成什么样?这正是本文要问的问题。

第 3 页

二、意义感究竟是什么

我需要精确说明我所说的”意义感”是什么意思,因为这个词有可能作为一种直觉漂浮不定,而不是作为一个分析范畴落地。尊严是人工智能伦理讨论中最常出现的术语,但它几乎总是在狭隘的交易性语境中被援引:面部识别偏见、非自愿数据收集、歧视性信用评分。这些确实是真实的伤害。但它们描述的是在特定、有限的时刻对尊严的侵犯。我所指涉的是更弥散、更根本的东西:人类能动性在社会上可辨识、被认可并被视作重要的结构性状态。

以这种方式理解的人类意义感具有三个相互依存的维度。第一个是认知维度:个人的知识和判断被寻求和尊重,个人被视为了解有价值信息的人。第二个是贡献维度:个人生产出他人所依赖的东西的体验,即个人的努力对自身之外的结果产生了影响。第三个是关系维度:家庭、社群和社交网络承认个人扮演着一个有分量的角色。这三个维度并非相互独立。认知意义感支撑着贡献意义感,而两者都通过关系认可得到确认和维持。

我认为,这三个维度中的每一个都正被人工智能侵蚀,而劳动经济学框架无法看到,更不用说解决这种侵蚀了。认知维度的侵蚀发生在:当人工智能系统在诊断、法律分析、代码审查和内容生成方面超越人类专业人士,而这些专业人士被鼓励将其角色视为监督或提示人工智能,而非行使独立判断时。麻省理工学院和斯坦福大学 2024 年的一项研究发现,人工智能辅助压缩了职业内部的技能梯度:当高绩效分析师和普通分析师都能使用相同的人工智能工具时,他们之间的差距显著缩小。这一发现通常被当作好消息(能力民主化)来报道。但这也意味着,界定职业身份的认知独特性——使熟练分析师不可替代而不仅仅是方便的那种东西——正在被消解。

贡献维度的侵蚀不仅源于岗位流失,还源于某种更微妙的东西:人类逐渐从决策链中被移除。当人工智能系统做出核保决定、生成初稿、筛选求职者或标记法律风险时,名义上监督这些系统的人类越来越被定位为机器输出的审核者,而非重要判断的制定者。关于就业心理社会价值的研究,包括一项为《美国经济评论》进行的关于罗兴亚难民的里程碑式研究发现,就业对心理社会福祉的改善幅度是无附加工作的等额现金转移影响的四倍。其机制不是收入。而是为某件事做出贡献、成为有价值产出来源的切身感受。当这种贡献被系统地通过机器传导时,该角色的心理社会价值就无法在传导过程中幸存下来。

第 4 页

关系维度正是颠覆对西方政策框架而言不可见,而对任何从全球南方视角思考的人来说却显而易见的地方。我将在下一节详细展开这一点。目前,关键点是:人类贡献得以被认可和重视的社会架构并非天然存在。它被构建、维护,也可能被摧毁。尊严赤字不是个体工人失业后遭遇的事情。而是当支撑认可的人类贡献形式大规模消失时,社会架构本身所遭遇的事情。

三、关系性自我:为何全球南方打破了西方模式

西方政策话语在确实论及工作的非经济维度时,倾向于采用一种治疗性语域。孤独、目标、意义:这些是表述去工业化、阿片类药物危机和后工业地区工薪阶层社区崩溃等人力成本的范畴。例如,布鲁金斯学会 2025 年关于人工智能导致劳动力流失的分析,其结论建议政策必须帮助工人找到”为社区生活做贡献的方式”,作为市场就业的替代。这是一个真诚的建议。但它是围绕作为分析单位的个体来组织的。失业工人需要找到意义。政策问题是为这种探索能够成功创造条件。

这种治疗性框架不仅仅是不适用于印度语境。它对印度语境而言是结构性地陌生。在组织印度乃至更广泛的全球南方大部分社会生活的关系性本体论中,意义感并非个体培养的内在状态。它是一个由社群生产和分配的社会事实。你是谁,与你做什么、你知道什么、以及你的家庭几代以来与工作世界的关系是密不可分的。这不仅仅是文化色彩。这是颠覆得以流动的操作系统。

自 1990 年代以来,印度 IT 行业的扩张创造了历史上非同寻常的事物:一种白领就业形式,它足够有声望,与全球现代性充分关联,并且跨越某些种姓界限具有足够的可及性,从而大规模地重新组织了家庭和社群的 aspiration(抱负)。对于那些曾围绕农田、政府服务或地方贸易来组织其社会地位的家庭来说,有一个在软件行业工作的儿子或女儿变成了一种不同的社会事实:证明该家庭在新兴秩序中的地位得到了保障。软件工程师的薪水从来就不仅仅是收入。它是重组后的社会地位的物质体现。到 2023 年,根据 NITI Aayog 2025 年 10 月的路线图分析,印度的 IT 和 BPO 部门直接雇佣了 750 万至 800 万人,估计间接就业乘数是该数字的 2 到 3 倍。

人工智能现在对这种社会架构所做的主要不是一个工作岗位数量的问题。NITI Aayog 最坏情况预测,IT 行业工人将从 2023 年的 750-800 万减少到 2031 年的大约 600 万。《2024-25 年印度经济调查》证实,人工智能以以往自动化未曾达到的方式威胁着非常规认知功能。

第 5 页

艾哈迈达巴德印度管理学院 2024 年的一项研究发现,68% 的白领员工预计人工智能将在五年内部分或完全自动化他们的工作,40% 的人认为他们当前的技能将变得过时。这不仅仅是经济预测。它们是对数百万家庭赖以构建其意义感的社会架构解体的预测。

种姓维度以人工智能政策话语几乎完全未能捕捉的方式进一步加剧了这一问题。《麻省理工科技评论》2025 年对 OpenAI 模型在印度的调查发现,输出中编码了系统性种姓偏见:图像生成模型将与达利特相关的提示语描绘出贫困标记,而将与婆罗门相关的提示语描绘出精神提升和社会权威的标记。在一个记录在案的案例中,一位达利特研究人员使用 ChatGPT 润色学术申请时,发现他的姓氏被悄然从 Singha 改为了 Sharma(一个上层种姓姓氏),模型解释说,上层种姓名称在其关于学术和研究圈的训练数据中出现频率更高。这不是一个孤立的故障。这是一个精确的例子,说明了人工智能系统如何以工业规模再现了种姓制度组织了数个世纪的社会辨识度等级制度。

性别维度同样是结构性的。过去三十年来,女性进入印度白领 IT 和 BPO 工作从来就不仅仅是就业。这是在家庭和社群结构内对意义感的协商,而这些结构此前将女性的劳动定位为家务的、不可见的、在关系经济中不被重视的。一位在跨国公司赚取薪水的女性改变了她在家庭中的地位。她变成了一个其判断被寻求、其日程被重视、其未来被讨论而不是被简单安排的人。国际货币基金组织 2024 年的数据指出,在高收入国家,9.6% 的女性就业属于人工智能风险最高的类别,几乎是男性工作比例的三倍。对于印度来说,其女性正规部门参与正好集中在最容易受到人工智能替代的认知服务岗位上,这种风险的程度对于一场才刚刚开始的性别意义感重新协商构成了结构性威胁。

我并不是像一些西方评论家那样,认为印度文化特别脆弱,因为它尚未实现自由个人主义,从而允许工人在就业之外找到意义。我恰恰相反:我认为西方将意义危机个体化的治疗模式本身就是问题所在,而印度的案例揭示了西方政策话语所压抑的东西。意义感总是关系性的,总是嵌入在社会架构中的。不同之处在于,印度的社会架构使这一点可见,而在西方环境中,自主个体的虚构掩盖了这一点。全球南方并非说明了这个问题。它产生了理解这个问题的正确框架

四、证据显示了什么,以及它无法看到什么

第 6 页

人工智能在印度导致劳动力流失的实证图景在其轮廓上已足够清晰,值得政策关注,即使确切数字仍有争议。IT 行业在 2024 年裁员超过 5 万人,主要影响初级程序员和软件测试员。仅 2025 年前五个月,印度初创公司就裁减了超过 3600 名员工,公司明确将自动化作为驱动因素。在一个著名案例中,金融科技公司 PhonePe 报告称,随着人工智能驱动的系统吸收了相关功能,其在五年内裁减了 60% 的客户支持人员。世界银行 2025 年 10 月的评估证实,与主要影响常规任务的以往自动化浪潮不同,人工智能有可能取代一系列非常规的白领服务业岗位。NITI Aayog 的分析发现,到 2030 年,超过 60% 的正规部门工作岗位易受自动化影响,尤其是在 IT 和 BPO 行业。

这些数字需要与另一个同样重要的数据点并列看待。国际劳工组织《2024 年印度就业报告》显示,受过教育的青年失业比例从 2000 年的 35.2% 翻了一番,到 2022 年达到 65.7%。印度面临的不是从充分就业开始的转型。它面临的是在结构性失业危机(该危机已将其失败集中在最受过教育的年轻人身上)之上叠加的人工智能规模性颠覆。那个承诺教育带来就业、就业带来意义感的社会契约,在人工智能到来之前就已经在 fraying(磨损)。人工智能并非从一个 adequate(足够好)的基线导致尊严赤字。它正在加速一个现有的结构性失败。

在这里,我想强调官方数据无法捕捉的东西。每一个关于人工智能与就业的主要机构数据集,从世界经济论坛的《未来就业报告》到国际货币基金组织的《世界经济展望》,都仅通过经济 proxy(代理指标)来衡量意义感相关的现象:工资水平、就业创造、技能分类、再培训参与率。它们没有衡量的是——正如世界银行一项针对罗兴亚难民的研究(之所以恰恰选择该人群,是因为他们几乎没有正规就业)所鲜明发现的那样——就业对心理社会福祉的改善幅度是等额现金转移的四倍。研究人员衡量了金钱买不到的东西:工人对自身对家庭价值的感知的提升、他们在社区中的地位、他们的认知敏锐度、他们降低的风险厌恶。这些是意义感指标,而不是收入指标。而它们几乎完全不存在于人工智能政策所依赖的框架中。

国际特赦组织关于印度 Samagra Vedika 系统的文件记录提供了一个具体例子,说明当政策将意义感简化为福利输送时会发生什么。Samagra Vedika 是一个用于确定特伦甘纳邦社会保护资格的数据聚合和自动决策系统。半岛电视台 2024 年的一项调查(随后由国际特赦组织分析)揭示,该系统的错误导致数千个家庭被剥夺了粮食安全、住房和收入支持。技术描述是”算法排除”。但正如国际特赦组织研究人员所记录的那样,生活经验是人们变得对旨在识别其需求的系统不可见。该系统的不透明性意味着,用国际特赦组织的话来说,调查伤害”极其具有挑战性”。一个有偏见的招聘者阻挡了几个人的职业生涯。一个有偏见的算法无形地排除了数百万人,并且没有明确的补救途径。在这个案例中,尊严赤字不是技术的副作用。它就是技术的运作模式。

第 7 页

我还在此处以不同的方式援引了之前提到的技能压缩发现。当人工智能辅助压缩职业内部的技能梯度时,它不仅改变了这些职业的经济学。它消解了认知意义感产生的主要机制之一:对差异专业知识的认可。在印度职业生活的关系经济中,初级分析师和高级分析师之间的区别不仅仅是工资差异。它是一种社会关系,一条认可链,在其中知识被传递,判断被发展,资历赢得尊重。当人工智能通过使平庸的分析师与优秀的分析师能力相当来 flatten( flattening)这种等级制度时,它并没有 democratize(民主化)知识。它蒸发了知识得以被认可和传递的社会架构。

五、干预陷阱:善意的政策如何加剧赤字

对人工智能导致岗位流失的标准政策回应是成熟且内在一致的:识别面临风险的工人,提供向相邻或新兴角色的再培训,在转型期间提供收入支持,如果失业足够严重,则考虑更广泛的再分配机制,如全民基本收入或对人工智能 generated(生成)的生产力征收资本利得税。这些干预措施并非 cynically( cynical 地)提出。它们反映了真正的关切,并且在边际上帮助个体工人 navigate(应对)可怕的处境。我的论点不是它们应该被放弃。我的论点是,作为一个解决尊严赤字的框架,它们将在结构上失败,并且这些项目的资金充足版本可能积极加剧结构性问题。

以再培训为例。麻省理工学院未来工作工作组发现,通过再培训项目,只有大约 30% 的失业工人成功 transition(过渡)到可比的工作。这个失败率主要不是因为具体项目的质量问题。正如布鲁金斯学会 2025 年的分析所详述的,这是一个结构性问题:再培训项目经常将工人从一个易受自动化影响的职业再培训到另一个,因为预测哪些角色将下一个被自动化确实很困难。工人发现自己处于一场与技术赛跑中,而技术的改进速度快于培训课程可以重新设计的速度。世界经济论坛在 2022 年估计,再培训全球一半的劳动力将需要每年 340 亿美元,考虑到人工智能能力提高的速度,这个数字可能已经过时了。

但再培训更深层次的失败不是实证性的。而是概念性的。再培训项目的前提是假设问题在于人类能力与市场需求之间的不匹配。供给是错的;解决方案是修正供给。只有当基本前提正确时,这个假设才成立:即人类在经济中的价值是人类能力(由市场需求判断)的函数。如果实际问题是尊严赤字,是人类贡献被认可和重视的社会状态的崩溃,那么再培训项目并不能解决它。它们强化了产生它的前提。它们告诉失业工人,他们的价值取决于市场衡量的他们的生产力,然后将他们——通常是不充分地——送入一个市场,在那里人类劳动力的竞争地位恶化速度快于项目能够补偿的速度。

第 8 页

全民基本收入作为最后手段的再分配后备方案,越来越多地出现在人工智能政策话语中,它是一个特别能说明问题的案例。关于全民基本收入实验对福利结果的影响,研究结果确实好坏参半。但世界银行关于就业心理社会价值的研究指出了一个更尖锐的问题:现金转移在提高幸福感的同时,有 suggestive(提示性)证据表明它削弱了男性在家庭中的 perceived(感知到的)地位,而就业则提高了这种地位。这是一个直接的意义感效应。没有贡献而 delivered(发放)的金钱,以就业未曾有过的方式重新协商了接受者的社会地位。在意义感是关系性的、你所做的组织着你是谁的环境中,与贡献脱钩的收入并不能恢复社会架构。它可能进一步掏空社会架构。

我在此指出的治理失败不是雄心或资源的失败。这是分类范畴的失败。人工智能政策框架被设计用来解决劳动力市场问题,并且它们正在部署劳动力市场工具。2024-2025 年的《牛津生成式人工智能治理分析》调查了数十个国家的人工智能战略,发现在所审查的 50 个国家中,只有 13 个国家表现出具有明确目标的高优先级,几乎全部是发达的欧洲经济体。所有这些国家的分析类别都是:教育和培训战略、劳动力再培训和技能提升、人工智能素养以及再分配机制。没有一个国家制定了将意义感作为一个政策类别的框架。没有一个国家衡量(或提议衡量)人类贡献所依赖的认可的社会架构。

2025 年 7 月的《美国人工智能行动计划》是最近的主要国家人工智能战略,它围绕三个支柱组织:加速政府在人工智能方面的 adoption(采用)、建设人工智能基础设施,以及赢得与中国的 geopolitica(地缘政治)竞争。其劳动力条款是与人工智能基础设施职业相一致的学徒计划和课程更新。这不是一个保护人类意义感的计划。这是一个最大化经济围绕人工智能重组的速度的计划,并为吸收部分失业者留下了一个 residual(剩余)轨道。正如我在对莫迪总理的 MANAV 愿景的分析中在其他地方论证的那样,印度人工智能战略面临着同样陷阱的一个版本:它有可能构建一个包装经济,其中印度拥有界面和部署层,但不拥有底层智能,而治理框架仍然完全围绕就业创造指标(包装经济可能无法交付的指标)来组织。

第 9 页

六、迈向关系性治理:必须改变什么

本文论证了人工智能政策被组织在一个范畴错误之上:劳动经济学框架将尊严赤字视为劳动力市场问题,而实际上,它是人类贡献得以被认可的社会架构的结构性崩溃。我想以我认为这一论点对治理的启示来结束本文。我在下面提出的四个重新定位,并非等待转化为政策的抽象原则。每一个都携带具体的、可实施的工具,这些工具直接源于该论点。我本着这种精神提供它们:不是作为一个完整的立法议程,而是作为证明这里所要求的概念性转变在实践中是重要的。

重新定位一:从个体到关系性分析单位

当前的政策体系衡量对作为个体的工人的影响:拥有的技能、赚取的收入、遵循的再培训轨迹。一个足以应对尊严赤字的治理框架必须衡量对工人所嵌入的社会架构的影响。区别不仅仅是方法论上的。一个将失业的 IT 专业人员转移到地位较低的自由职业角色的再培训项目,将在每一个现有的数据系统中被登记为积极的就业结果,同时却摧毁了使原有就业有意义的关系性意义感。为了追踪这两方面,治理需要新的工具。

我建议的第一个工具是社会架构影响评估,其模式仿照印度已对大型基础设施项目要求的环境影响评估。在任何超过特定规模阈值(例如,影响单个组织或部门中五百个或更多角色)的人工智能部署之前,部署实体将被要求委托进行 SAIA,以 mapping(描绘)出面临风险的关系结构:专业指导链、社区地位效应、以及种姓和性别差异化的意义感影响。这使得关系成本在发生之前变得可见,而不是在发生之后——而当下的每一次有意义的干预都变成回顾性的,因此是不充分的。

第二个工具是关系性就业指数:一个统计模块,将添加到定期劳动力调查中,追踪就业在收入之外所提供的东西。这将包括职业群体内的指导密集度、职业角色的社区辨识度、家庭地位指标以及代际知识 transfer(转移)率。这并非没有先例。经济合作与发展组织的美好生活指数自 2011 年以来一直在追踪非经济福祉。印度需要自己的、针对其关系性生态校准的版本,而不是从为个体化的西方社会建立的框架中导入。《定期劳动力调查》是正确的载体,因为它已经是主要的劳动力市场工具,并且能够接触到跨越收入和种姓类别的受访者。

第三个工具针对的是当前数据系统完全 blind(盲)于的人工智能 displacement(替代)的一个后果:专业社群的解体。当一个行业收缩时,现有数据捕捉到人数减少。它没有捕捉到指导关系的崩溃、知识社群的碎片化,

第 10 页

或者初级群体从一开始就无法形成。应要求 NASSCOM 与电子和信息技术部合作,发布 IT 和 BPO 行业的年度专业社群健康报告,不仅要追踪人数,还要追踪群体形成率、指导比例以及新进入者的职业道路可用性。没有这些数据,政策制定者在对最重要维度的结构性 blindness(盲视)状态下管理人工智能的社会后果。

重新定位二:从市场参与到贡献架构

劳动经济学框架问的是人们是否具有经济生产力。一个对尊严充分的框架问的是人们是否被 positioning(定位)为能够以他们所归属社群认可的方式做出贡献。这个重新定位开辟了劳动框架在结构上无法看到的政策可能性,因为它要求国家将非市场贡献视为一个合法的意义感场所,而治理有责任保护和资助这个场所。

这里最紧迫的实际工具是我所谓的人类存在底线:一项立法要求,规定特定领域必须维持最低限度的人类决策和人类接触比例,无论人工智能能力如何。我想到的领域不是任意的。它们是那些人类判断的存在本身就是被交付物的领域,而不仅仅是一个交付物的输入:初等和中等教育、初级医疗保健、司法程序、福利决定和社区争端解决。日本关于机器人管理老年人照护的全国性辩论之所以具有指导意义,正是因为它对照护到底是什么以及机器能否提供照护产生了严肃的公众分歧。印度必须在自动化通过未经公众 deliberation(审议)做出的部署决策而先发制人地排除这种辩论之前,进行这场辩论。人类存在底线不是卢德主义的工具。它承认,在高尊严风险的领域,意义感不是服务的副产品。它就是服务本身。

第二个工具是贡献基础设施基金,一个专门的融资机制,作为国家政策对非市场贡献架构提供资源。具体来说,该基金将支持三类机构:传统知识生态系统,包括工艺行会、农业知识社群和 Vernacular(本地语言)教育网络,作为 formally(正式)认可的人类贡献场所;社区媒体和地方知识生产基础设施,其中人类判断和人类存在在结构上是核心;以及结构化指导,以及知识传递本身就是一种重要的社会贡献形式的部门的学徒计划。这绝对不是福利。这是意义感的基础设施,应该用这些术语来资助和描述。印度已经有农村基础设施的融资机制。将类似逻辑应用于社会意义感基础设施的论点不是更弱,而是更紧迫

第三个工具针对的是人工智能驱动效率的最不可见的后果之一:初级岗位的 elimination(消除)。当组织使用人工智能来吸收初级分析师、初级律师和初级软件工程师曾经执行的工作时,它们 elimination(消除)了人们进入专业社群、发展认知身份和获得初步社会认可的场所。这是一个意义感形成问题,而不是工资问题。我建议,超过特定规模阈值、部署影响就业的人工智能系统的组织,应作为在印度劳动力市场运营的条件,维持结构化的初级职业路径,其比例与行业机构协商确定。框架很重要:这不应被定位为对采用人工智能的税收或对有组织劳工的让步。它应被定位为国家在维护社会架构方面的利益,下一代 worker(工人)通过该架构形成职业身份。这种利益是 Legitimate(合法)的,它与市场逻辑不同,除非被明确命名和保护,否则它无法得到维护。

第 11 页

重新定位三:从 opacity(不透明)到自动化系统中的社会辨识度

每一个触及人们生活的自动化决策系统,都是一个社会认可结构要么被维护、要么被摧毁的场 site(地点)。国际特赦组织记录的 Samagra Vedika 案例不是一个例外的失败。这是将算法治理应用于那些其复杂性和尊严系统本非为承载的人群的可预测结果。《2023 年数字个人数据保护法》确立了围绕准确性和同意组织的数据主体权利。这些是必要的,但完全不充分。准确性问的是数据是否正确。同意问的是此人是否同意使用其数据。这两个问题都没有问:该决策是否尊重一个嵌入在认可关系中的社会存在?

我提议将尊严影响审计作为现有数据保护合规要求的并行工具。DIA 对于任何触及福利资格、就业、信贷、住房、警务或教育安置的自动化决策系统将是强制性的。与数据审计不同,DIA 询问的不是数据是否准确,而是该决策是维护还是摧毁受影响者的社会辨识度。它将要求部署组织证明:受影响者能够以对其自身生活有意义的 terms(术语)理解该决策;他们拥有通过可及机制 contest(质疑)该决策的真正地位;以及该决策将他们视为具有历史和社群的社会存在,而不是一个概率分数。DIA 应由具有受影响群体社区代表的独立审计员进行,其发现应公开。

与 DIA 并行,我主张在人工智能申诉框架中建立社区地位权利。当前的申诉机制是个体性的:受算法决策不利影响的人可以提出投诉。但是,当损害是结构性的时,个体投诉机制既是实际上难以接近的,也是分析上不充分的。一个被北方邦农村的算法拒绝小额信贷的女性,不仅需要个人 recourse(追索权),而且当该算法被证明系统地 exclude(排除)了她所在地区的女性时,也需要一个集体 contestation(质疑)的机制。印度的宪法实践发展了公共利益诉讼,正是为了将地位扩展到 individual(个体)受损害方之外。这种逻辑现在必须应用于算法治理。受影响的社群应具有正式地位来 aggregate(集体)挑战人工智能系统,并且证明尊严 adequacy(充分性)的责任应在于部署组织,而不是受影响者。

第 12 页

最后,任何影响主要语言非英语的公民的自动化决策系统,都不应被允许仅提供英语解释。这在技术上是 straightforward(直接的),但在行政上要求很高,而这也正是它尚未完成的原因。要求算法的决策以受影响者的语言解释是一项最低的尊严标准,而不是技术上的细节。它在人工智能法规中的持续 absent(缺失)是一个关于谁的可辨识性才算数的结构性选择。它应通过 mandate(授权)逆转,并提供一个分阶段的实施时间表,允许部署组织在执行开始之前建立多语言解释能力。

重新定位四:从无差别的人工智能战略到细分的影响问责制

尊严赤字不会被均匀分布。正如我已经表明的,它将沿着现有的种姓、性别和阶级的断层线流动:流过那个人工智能系统重写其姓氏以信号上层种姓 identifiability(可识别性)的达利特研究员;流过女性进入白领职业在结构上比其 male(男性)同事更容易受到人工智能替代的情况;流过受过教育的年轻人进入一个国际劳工组织已经记录到二十年来受过教育的青年失业率翻倍的劳动力市场。一个不按这些维度细分的治理框架将系统地误读谁正在承担人工智能干扰的成本,并将设计出解决 aggregate(总体)而忽略结构性的干预措施。

这里的实际工具是按受保护类别进行的强制性人工智能 displacement(替代)报告。每个雇佣超过 500 人、部署影响就业的人工智能系统的组织,都应被要求每年报告按性别、在册种姓和在册部落 status(状态)以及收入十分位分列的劳动力变化。这是知道尊严赤字是否正被那些历史上承担了结构性负担(disproportionately 不成比例地)的群体所承担所需的最低信息基础设施。《同工同酬法》已经确立了必须按性别追踪劳动力市场结果的原则。人工智能 displacement(替代)需要同样的逻辑,扩展到全套的社会显著类别,并由 enforcement(执法)而不是自愿披露来支持。

对于公共部门的人工智能采购,标准应该更高。印度政府通过 Aadhaar、数字公共基础设施、电子政务平台以及涵盖福利、警务和教育的预测分析工具,成为世界上最大的人工智能采购者之一。每一个用公共资金采购的人工智能系统都应被要求在部署前通过种姓和性别偏见审计,并完整发布审计报告。《麻省理工科技评论》关于 OpenAI 种姓编码模型输出的文件记录,以及国际特赦组织记录的 Samagra Vedika 排除模式,确定这不是针对假设性风险的预防性要求。这是一个有文件记录的操作必要性。

第 13 页

《定期劳动力调查》还应增加一个性别化的人工智能风险模块:一个定期的数据收集工具,追踪按性别分列的各行业人工智能 adoption(采用)率和人工智能相关的 displacement(替代)。印度目前没有系统性的、具有全国代表性的数据,来说明国际货币基金组织所记录的女性化白领人工智能风险模式是否以及如何在印度具体的劳动力市场中成为现实。针对性别差异化影响的干预措施,如果没有这些数据就无法设计。它们的 absent(缺失)不是资源约束。这是一个优先事项的选择,应该被扭转。

关系性治理的政治经济学

我想诚实地面对我所提议的难度。这些工具中没有一个是技术上复杂的。它们全都是政治上困难的,因为它们要求国家正式认可市场 metric(指标)无法捕捉的人类价值形式,并承担起保护市场无法提供的社会条件的责任。第五节中确定的干预陷阱之所以存在,部分原因是劳动力市场干预措施在方式上是可资助、可衡量且在政治上可辨识的,而关系性治理则不然。一笔再培训拨款出现在预算项目中。一个社会架构影响评估并不能 neatly( neatly 地)映射到现有的部门 mandate( mandate 的管辖范围)。一个贡献基础设施基金需要一场关于什么算作贡献的定义性辩论,而当前的政策词汇表并不具备进行这场辩论的能力。

这些都是真实的障碍。但是,我认为,它们也正是值得 encounter(面对)的障碍,因为它们迫使政治体系发展出一种超越市场生产力的、关于人类价值的词汇。否则,替代方案是一个继续大力投资解决一个它尚未正确诊断的问题的政策体系,而实际的牺牲品在印度和全球南方社区的 relationship(关系)结构中以不可见的方式 steadily( steadily 地)增加。尊严赤字不是未来的风险。它已经在班加罗尔 IT 行业 dissolve(消失)的初级群体中、在那个人工智能重写的申请 signalling(信号出)了他未曾选择的身份的达利特学者中、在那个其白领意义感被自动化的速度快于治理能够 regist(记录)它的女性中 underway(正在进行)。有待决定的是,政策是否会被设计来按照自身的 terms(条件)解决赤字,还是将继续把症状误认为疾病,并且每年以更高的成本治疗症状。

参考文献和数据来源

  1. Acemoglu, D., and Restrepo, P. (2022). Tasks, Automation, and the Rise in US Wage Inequality. Econometrica, 90(5), 1973-2016.
  2. Amnesty International (2024). India/Global: New Technologies in Automated Social Protection Systems Can Threaten Human Rights.
  3. Brookings Institution (2025). AI Labor Displacement and the Limits of Worker Retraining.
  4. The Federal (2026, February). The White-Collar Jobs India Built Its Economy On Are Now Most at Risk from AI.
  5. Government of India, Ministry of Finance (2025). Economic Survey 2024-25, Chapter 13: Labour in the AI Era: Crisis or Catalyst?
  6. Hussam, R., Kelley, E., Lane, G., and Zahra, F. World Bank blog discussion, March 2024. (Valuing Work and the Nonmonetary, Psychosocial Value of Employment)
  7. International Labour Organization (2024). India Employment Report 2024: Youth Employment, Education and Skills.
  8. International Monetary Fund (2024). Gen-AI: Artificial Intelligence and the Future of Work. IMF Staff Discussion Note SDN/2024/001.
  9. IIMA Study (2024). Labour-force Perception about AI: A Study on Indian White-collar Workers. Brij Disa Centre for Data Science and Artificial Intelligence, IIM Ahmedabad.
  10. NITI Aayog (2025, October). Roadmap for Job Creation in the AI Economy.
  11. Observer Research Foundation (2025). Reimagining Work in the Age of AI: India’s Opportunity.
  12. Oxford Academic, Policy and Society (2025). Governance of Generative AI. Policy and Society, 44(1).
  13. Sonavane, N., and Bej, S. (2021). A New AI Lexicon: Caste. AI Now Institute.
  14. Tandon, V. (2025, October). OpenAI is Huge in India. Its Models Are Steeped in Caste Bias. MIT Technology Review.
  15. The Print (2025, September). AI is Learning Caste Bias in India. Who Will Audit It for Discrimination?
  16. World Economic Forum (2025). Future of Jobs Report 2025.

转载请注明:《中国社会分红/基本收入研究网》 浏览量:31 views