维杰·普拉沙德、熊节:怎么让AI服务人民?“赤脚医生”就是最好的回答
来源:观察者网
2026-05-07 13:42
【文/观察者网专栏作者 维杰·普拉沙德、熊节,译/鲸生】
人工智能进入公共生活,照例带来一阵熟悉的喧嚣:人们惊叹于它的技术能力,忧虑于它的社会后果,而最耐人寻味的是,那些从中看到积累新边疆的人,脸上露出了狂喜。描述AI的语言充斥着“不可避免”的腔调,仿佛历史本身早已合谋,要将这项技术交到我们当前经济秩序的手中。
然而,历史从不因“必然”而前行——它是由权力所塑造的。从这个意义上说,AI也并非降生在一片中立之地:它踏入的世界,只能被描述为衰败中的资本主义。因此,说到底,AI既不是我们的朋友,也不是我们的敌人。它有可能服务于人类解放,但前提是,我们必须把它从圈占中夺回来,阻止它沦为私人积累的又一种工具。
进一步看,资本主义到了当前这个阶段,连曾经用来为自身暴力辩护的那一丝微弱的共同繁荣承诺,也已经消失殆尽。我们面对的是一个虽已丧失合法性、却执意要通过日益榨取性的手段来自我再生产的体制。具体来说,金融资本早已脱离生产性投资,转而偏好那些能带来利润却无需社会变革的投机循环;与此同时,公共产品被掏空,劳工保护受到侵蚀,民主机构也屈从于企业利益。正是在这样的土壤上,AI登场了——它并非什么解放的力量,而是一种被这些深层矛盾所塑造出来的技术。
那么,谁拥有AI?它又服务于何种目的?答案既非抽象,也非含混。首先,屈指可数的几家大型企业——大多集中在全球北方——控制着让AI成为可能的基础设施、数据和算力资源。它们的支配地位,是数十年政策决定的结果:知识被私有化,数字公地被圈占,研究被置于企业意志之下。
更重要的是,这种集中绝不仅仅是商业层面的。那些拥有AI基础设施的企业,依法律和惯例,与它们总部所在帝国的国家安全机器紧密相连。2013年斯诺登曝光的“棱镜”计划表明,微软、谷歌、苹果、Meta等企业持有的数据会常规地流入美国情报机构手中;2018年的《云法案》则把这一逻辑延伸到了国界之外,授予美国当局合法访问这些企业在全球任何地方所持数据的权力。正因如此,当代AI的架构,恰恰继承了这一安排。
一个在加利福尼亚训练出来的前沿模型,通过圣保罗或拉各斯的云服务进行部署,在法律实质上仍然属于美国监控与情报体系的工具。换句话说,将自身的经济和公共管理融入这一基础设施,就等于融入这一体系。在我们这个时代,帝国架构的传播方式,就是一个应用程序接口。
另一方面,再来看数据。喂养AI系统的数据,是从数十亿人的集体活动中收割而来的,然而这些数据所产生的价值,却被一个狭小的精英阶层所攫取。这其实并不新鲜——资本主义始终依赖于对土地、劳动和知识的圈占。新鲜的是AI将这一过程推向的规模与速度:人的创造力、交流和社会关系被转化为数据点,被剥离语境,再作为专有资产重新组装起来。然而,对数据的圈占虽然规模巨大,却只是剥夺的一个方面。在它旁边,还有一场几乎无人提及的、发生在此前四十年信息产业中的第二层剥夺:系统地剥夺劳动人民构建信息工具的能力。
具体来说,在UNIX和BASIC的时代,一个使用计算机的人,按照机器的设计逻辑,也同样被期望去编程它;早期计算机的工作环境,天然地邀请用户去制造工具、修改工具、传递工具。而今天,这一状况被彻底逆转了。劳动者和公民所面对的信息工具,是作为成品商品出现的——由经过认证的专家为他们生产,被封装在内部逻辑无法审视和修改的平台之中。于是,构建的能力被稳步地从大众生活中抽离,集中在少数几家公司的工程部门,也就是今天控制着AI的那些公司。更重要的是,这两层剥夺相互叠加:劳动人民的数据被抽取之后,又被用来训练那些系统,而后者反过来进一步收窄了那些数据被抽取者自身想象与生产的视野。
最终,呈现在他们面前的是:他们未曾参与建造的工具,基于他们未曾同意交出的知识所训练出来,再以服务的形态卖回给他们,让他们为此付费。由此可见,失去的不仅是一份价值份额,更是一种位置——制造者的位置、建造者的位置、塑造集体生活组织方式的人的位置。
因此,在资本主义之下讨论AI,如果不提出这第二层剥夺的问题,就等于默认维持那更深层的依附结构。
此外,工人本已与自身劳动产品相异化,如今连他们的认知本身也被抽象化、被货币化。就连AI的基础设施也体现了这一逻辑:由少数几家巨头控制的云计算,已经成为创新的守门人。要构建先进的AI系统,就必须向这些企业租借算力资源。这种安排与历史上的圈占运动如出一辙,只不过如今的地盘变成了数字化的、全球性的。其结果不仅是财富的集中,更是可能性的集中——它不仅决定了谁能造AI,还决定了什么样的AI会被造出来。
在这种条件下,研究的优先顺序自然服从于盈利性而非社会需求。首先,巨额资源被投入广告优化、金融交易算法和消费者预测系统;与此同时,用于应对气候变化、加强公共卫生系统或改善粮食分配的资源配置却少之又少。由此可见,问题不在于AI能不能解决这些难题,而在于:在资本主义下,它为什么很少被允许去解决?
以医疗为例。从一方面来说,AI在诊断和药物发现方面已展现出卓越的能力。然而在实践中,它的部署却完全服从于市场命令。具体而言,在美国,保险算法通常将削减成本置于患者照护之上,对边缘化群体造成不成比例的伤害;另一方面,制药公司利用AI加速药物研发,却同时维持着严格的专利制度,从而限制了药物的可及性。结果就是:技术是尖端的,社会结果却是倒退的。换句话说,AI不是在技术上失败了,而是在政治上失败了。
AI技术用于生物技术和药物研发,能大大减少实验时间,造福于人类
教育领域同样如此。表面上看,AI驱动的平台承诺个性化学习和知识获取的扩展;但在利润驱动的体制下,它们却变成了数据提取和市场细分的工具。学生的行为被追踪、商品化并出售。更富有的机构能够获得先进系统,而资金不足的学校则进一步落后。于是,表面上所谓的创新,变成了不平等的又一层外衣。
更重要的是,支撑AI的全球劳动分工进一步暴露了这些矛盾。具体来说,硅谷的工程师设计先进模型,而全球南方的工人却在不稳定的条件下标注数据、审核内容、维护数字基础设施。这些工人忍受着低工资和心理压力,常常要审核令人不适的材料,来“训练”那些号称智能的系统。这些数字并非抽象概念:总部位于美国的Sama公司作为OpenAI的外包商,雇佣了肯尼亚工人来标注和审核ChatGPT被训练以识别和拒绝的有毒内容——这些工人审核涉及性暴力、自杀和虐童的描述,而他们的实际到手工资据报道仅为每小时1.32到2美元。
类似的安排、同样的工资水平,遍布马达加斯加、菲律宾、委内瑞拉和巴基斯坦;价值数十亿美元的全球数据标注市场,就建立在这种劳动之上。从这一角度看,那些在帝国中心销售的系统的光鲜与表面的智能,字面意义上正是建立在边缘地带劳动人民的神经系统之上的——那些工人的名字从不出现于任何营销材料中,他们的劳动条件经过精心管理,恰好就是为了让他们不为人知。
由此推之,AI根本不是“人工”的:它建立在人类劳动之上——这种劳动分布不均,且被系统性剥削。然而,AI的意识形态力量恰恰在于它的神秘化:它将自己呈现为自主而客观的存在,从而掩盖了内嵌其中的社会关系。
即便是模型表面上的中立性,一经审视也会烟消云散。首先,大语言模型的训练语料绝大多数来自帝国中心的语言、档案和意识形态框架;因此,它们的默认输出往往以惊人的保真度复制了这些框架在财产、主权、国家的合法性、革命的性质等议题上的政治预设。
换句话说,表面上呈现为普适工具的技术,一经检视便显露出带有立场的本质。更重要的是,这种偏见不是可以通过更好的过滤来修正的技术事故,而是塑造该模型的社会关系的沉淀物。结果便是,有害的结果被框定为技术故障,而不是结构性特征,责任也随之消解于抽象之中。归根结底,这种神秘化极大地服务于资本——它收窄了政治的想象力,鼓励人们去适应而非抵抗。
那么,未来会怎样?如果资本主义尚处于有活力的阶段——也就是说,如果它仍在扩展社会权利、投资于公共产品——AI或许还能被整合进一个更宽广的人类发展计划之中。但以它如今衰败的形式,资本主义既缺乏这个能力,也缺乏这个意愿。
于是,AI变成了又一个积累的机制,又一个斗争的场域。因此,问题不在于AI是否会改变社会——它已经在改变——而在于这种改变将由利润主导,还是由人的需求主导。
要回答这个问题,我们必须超越批判,认真考虑替代性的安排。
首先,在社会主义条件下,AI不会围绕积累来组织,而是围绕集体福祉来组织。而这首先需要从所有制的变革开始:数据、基础设施和算力资源将被视为公共产品,由民主方式治理,而非私人控制。进一步说,人类活动所产生的庞大数据集将被视为集体资源,其收益在全社会范围内分配。由此可见,这一转变将从根本上改变AI的目的。
举例而言,自动化将不再被用来替代工人、压低工资,而是用来减少社会必要劳动时间;它不会制造失业,反而可能带来缩短的工作时间、更多的闲暇,以及更广泛地参与文化和智识生活的机会。届时,问题将不再是怎样最大化生产率,而是怎样分配生产率提高所带来的收益。
一线工人感受智能科技
值得注意的是,这种对自动化的运用,已经以零碎的形式出现在那些技术的社会关系并未完全屈服于私人积累的地方。以上海建工集团运营的工地为例:那里已经部署了四十多种机器人,用来接手最为艰苦的几类工作——在四十度以上的酷暑中绑扎钢筋、在狭窄通风差的狭小空间里焊接、地下隧道管片的拼装找平。更重要的是,原先被分配到这些岗位的工人并没有被抛弃;他们被重新培训,成为替代他们身体承受伤害的那些机器的操作员和技术员。因此,将自动化用于把人类劳动从危险、繁重的工作中解放出来,并同时有针对性地对转岗工人进行再培训——这不是某种遥不可及的社会主义远景中的幻想,而是当下正在发生的具体实践。
从历史的角度看,也曾闪现过此类可能性的踪影。上世纪70年代初,智利的“赛博协同”工程(Cybersyn)曾尝试利用计算系统进行民主的经济协调。尽管受限于当时的技术条件,并最终被一场帝国主义政变所摧毁,但它至少证明了:数字系统可以为集体计划服务,而非服务于私人利润。而今天的AI技术,极大地扩展了这一潜力。
以物流为例:在资本主义下,AI优化供应链以提高效率,却往往同时加剧了仓库和配送网络中的劳动剥削;相比之下,在社会主义下,同样的系统可以协调分配以满足人类需求,同时改善劳动条件。自动化可以消除消耗体力的任务,而工人则保留对劳动过程的民主控制。
然而,当年“赛博协同”的设计者们无法获得的条件——以及此后半个世纪里社会主义计算的主张者们无法获得的条件——是一个非垄断的、可大规模部署的计算基础。而这一条件在过去两年中已经开始改变。具体来说,随着来自中国的高性能开源权重模型——最突出的是DeepSeek和GLM——的发布,任何一个拥有中等资源的部委、大学或运动组织,现在都可以获得一系列基础模型:它们的架构和权重已经公开,可以在主权基础设施上部署,并且使用它们无需在法律上从属于任何一家美国公司。
此外,再加上中国AI能力在国家-资本复合体中的更广泛崛起——这个复合体的对外取向更倾向于主权国家之间的协商合作——这一发展为全球南方打开了一个此前并不存在的真正选择:是屈服于监控霸权,还是在平等伙伴之间进行政治协商。
当然,这个选择尚未做出;相应的基础设施尚未建成;许多国家的政治意愿也尚未凝聚。但重要的是,自1973年以来,第一次具备了“后赛博协同”时代的物质条件。正是在这一历史节点上,第三世界社会研究学会(Tricontinental: Institute for Social Research),连同全球南方学术论坛以及拉丁美洲、非洲和亚洲的伙伴机构,开始着手勾画一个“赛博协同AI赋能中心”(Cybersyn AI Enablement Centre)的轮廓——一个由本地化机构组成的网络,旨在将AI技术方法转移给研究者、传播者和教育者,以服务于进步政策、大众媒体和大众教育。需要强调的是,该中心只是众多可能制度形式中的一种;它本身并非主张。
五十年过去了,主张依然与阿连德和赛博协同团队当年提出的完全相同:技术必须服务于各国人民的自主发展,而非他们的屈从。变化在于,自1973年以来,第一次,我们可以在提出这一问题的时候,不必再因理想与物质可能性之间的鸿沟而表达歉意了。
另一方面,数据治理也将随之转变。数据不再被抽取和商品化,而是通过公共机构或合作社等集体框架来管理。近年来出现的数据合作社实验——个体共同汇集并集体管理自己的数据——让我们得以一窥这种可能性。可以预见,在社会主义体制下扩大这类模式,能够确保数据服务于社会利益,而非企业利益。
社会主义对AI主权的完整实现,首先要求人民自身重新回到“建造者”的位置——不是作为个别的例外,而是作为得到物质支持的、被承认的政治主体。需要指出的是,就在不久之前,这一位置在结构上还是封闭的:计算机只能够执行以形式化编程语言表达的内容,普通人被排除在“建造”之外正源于此。而大语言模型已经开始打破这一等式。
具体来说,现在平实的自然语言可以直接驱动计算;近一个世纪以来横亘在人类意图与机器行动之间的那个翻译层,第一次向劳动人民敞开了大门。从这一点出发,我们可以用一个来自全球南方鲜活传统中的名字来称呼这一敞口所催生的主体。
自20世纪60年代末起,中国国家培训了超过一百万名赤脚医生——他们是来自村庄的年轻人,掌握基础医疗知识后返回家乡,以城市培训的医生无法比拟的亲近感和责任感服务自己的社区。这个经验是可以迁移的:人民迫切的需求,最好由深深嵌入社区生活与劳动中的实践者来满足,让专业知识生长在他们自己手中。
“赤脚医生”是在上世纪五六十年代,农业集体化过程中出现的。
对应数字主权领域的那位人物,便是“赤脚建造者”——那些在可及的AI辅助下,构建自身生活与工作所需信息工具的工人、农民、教师、记者或社区组织者。因此,在建设国家层面主权的同时,支持这一主体的形成,正是当下的历史节点摆在我们面前的政治任务。
另一方面,全球维度同样至关重要。今天的AI正在复制全球北方与南方之间的不平等:它将专业知识和利润集中在少数几个地区,同时将劳动和环境成本外部化。对此,社会主义路径要求国际合作:共享研究、技术转让、公平获取资源。只有这样,AI才可能被引导去解决全球性挑战(例如农业、气候适应、公共卫生),并以赋能地方社区而非加深依附的方式进行。
此外,伦理治理也将被重新定义。在资本主义下,企业进行有限的自我监管,往往将伦理关切置于利润之下;而在社会主义下,民主监督将成为核心。具体而言,关于AI部署——尤其是在监控等敏感领域——的决策,将受到公共问责。像人脸识别这类目前被用于扩大国家和企业监控范围的技术,将受到严格控制或被彻底拒绝,从而确保它们不会成为压迫工具。
更进一步说,从这个意义上讲,社会主义条件下的AI甚至有可能深化民主本身。通过实现更高效的资源协调和扩大知识获取,它可以支持在当前条件下难以实现的参与式治理形式。关键在于,技术不会替代政治,而是从属于政治。对比是鲜明的:在衰败的资本主义下,AI加剧剥削、集中权力、加深不平等;而在社会主义下,它可以减少劳动、扩大平等、使技术发展符合人类需求。由此可见,区别不在于技术本身,而在于塑造技术的社会关系。
那么,AI是会挽救资本主义,还是加速它的衰落?实际上,这个问题本身问错了。AI或许能通过开辟新的积累途径,暂时延长资本主义的生命。但与此同时,它也加深了该体系的矛盾:替代劳动力、集中财富、侵蚀社会凝聚力。换句话说,它使一个富足与匮乏并存的体系的非理性暴露无遗。同时,AI也指向了超越资本主义的可能。它表明,许多形式的劳动可以被自动化,资源可以进行大规模协调,知识可以在全球范围内共享。正因如此,这些能力昭示着一种不同社会形态的物质基础——一种围绕需求而非利润组织起来的社会。
当然,AI并不能决定那个未来。它只是澄清了利害关系,强化了我们面前的选择。因此,围绕AI的斗争不是技术性的,而是政治性的。这是一场关于所有权、关于控制权、关于生产本身之目的的斗争。归根结底,AI究竟会成为统治的工具,还是解放的手段,不取决于它的算法,而取决于塑造其发展的社会力量。
历史不提供任何保证。但它提供了一个教训:技术反映的是生产它的那个社会。所以,如果AI要服务于人类,就必须把它从衰败的资本主义的掌心中夺回来,安放在一种不同的视野之中——一种扎根于尊严、平等与集体福祉的视野。
在此之前,AI将始终是它今天的样子:不是救赎,也不是末日,而是一面镜子,映照出我们这个时代的矛盾,以及变革当下的迫切必要性。
本文系观察者网独家稿件,文章内容纯属作者个人观点,不代表平台观点,未经授权,不得转载,否则将追究法律责任。关注观察者网微信guanchacn,每日阅读趣味文章。