詹姆斯·王:中美AI竞争同样需要“防护栏”

来源:观察者网

2026-05-13 10:31

詹姆斯·王

詹姆斯·王作者

美国信息技术与创新基金会(ITIF)谷歌美国公共政策研究员

【文/詹姆斯·王,翻译/鲸生】

中美之间围绕科技管制的整套架构,起初是为那些装在集装箱里的东西所设计,而不是针对软件。这一点正在成为两国科技关系中最具影响力的事实。如今,两国政府是否开始正视这一落差,将迎来一次初步的事实检验。

过去三年来,美国的政策辩论始终围绕着一套以硬件为中心的逻辑展开,就连政策的批评者也基本接受了这套逻辑。从光刻机、GPU服务器到封装设备,这些产品都可以被发布许可证、禁止出口、追踪与逐一清点。美国商务部工业与安全局(BIS)维持着各类实体清单。荷兰、日本等盟国配合实施并行的限制措施。新加坡和吉隆坡的海关官员会留意那些被转道运输的货物。这个管控体系虽然不完美,但毕竟还算个体系。

然而,前沿人工智能的能力正越来越多地经由这套体系根本无法触及的渠道扩散开来。应用程序接口的调用、开放权重模型的发布、合成数据集与公开发表的研究成果,如今都在让AI相关的能力跨越国境,却根本不需要经过任何物理意义上的海关。这个问题的一个重要版本,在技术层面有自己的名字:模型蒸馏。在任何关于中美科技外交走向的严肃讨论中,它都应该排在最靠前的位置。

蒸馏这件事既不新鲜,也没什么恶意。2015年,杰弗里·辛顿(Geoffrey Hinton)和他在谷歌的论文合著者正式提出了这一概念,方法是用一个大“教师”模型的输出,训练出一个更小、更便宜的“学生”模型,从而压缩前者的行为。十年后,这已经成为世界各地商业化AI部署的基础手段。苹果公司为iPhone蒸馏模型,OpenAI为其消费级产品做蒸馏,DeepSeek、阿里巴巴和Meta则把自己模型的蒸馏版本发布给开源社区。

真正改变了的是“教师”模型的可获得性。当任何拥有信用卡的个人都可以通过付费API访问世界上最强大的AI系统时,从观察一个模型的输出,到把其中相当一部分能力吸收进一个新模型,这中间的实际距离就变成了关于调用量、工程能力和耐心的函数。而这三样东西全都不受限制,也根本不可能在国家边境线上被拦住。

2025年12月11日,美国总统特朗普在白宫椭圆形办公室签署行政令,在联邦层面统一对人工智能领域的监管规则,限制各州各自制定规则。 东方IC

最近几个月以来,华盛顿已经形成了一套谈论这件事的话术。今年2月,Anthropic发布了一份技术披露,宣称中国的三家大型实验室“利用数以万计的账户进行大规模提取活动”。OpenAI也向美国众议院提交了类似的材料。4月,白宫科技政策办公室发布了一份备忘录,指责所谓“主要位于中国的外国实体”对美国科技前沿系统发动“产业规模级别的攻击”。几天后,《华尔街日报》报道称,美国财政部长斯科特·贝森特正筹备举办自特朗普政府上台以来的首次正式中美AI对话。

这些事态发展很容易被解读为一份起诉书,而这大致就是美国国内辩论的基调。但更有价值的解读方式是从结构角度入手。硬件出口管制之所以奏效,在于受管控的器物是实体且昂贵的。一块高带宽内存堆栈造价数百万美元,有实实在在的重量。蒸馏的运行并不遵循这些原则。它以日常流量为运输载体;使用合成数据,而这些数据只是作为普通文件传输;它建立在开放权重之上,而权重一经公开发布便再也不能收回。这些配方本身在发布后数小时内就会通过arXiv扩散开来。

中国方面的立场,以其自身逻辑来看同样理据充分。中国的实验室被切断了获得最先进美国芯片的渠道,反而令计算上的节俭变成了一条维持竞争力的护城河。DeepSeek公司的多头潜在注意力机制(Multi-Head Latent Attention)、月之暗面的MuonClip优化器、稀宇科技的Lightning Attention线性注意力机制都是真正的架构贡献,已经被西方的开源项目所采用。2025年8月中国国务院发布关于“人工智能+”行动的意见,将AI在经济各层面的扩散,而非原始模型的跑分,当作衡量国家成功的主要指标。斯坦福大学人本人工智能研究院的2026年AI指数显示,中美顶尖系统在Chatbot Arena上的差距为2.7%,而中国的私人投资额仅约为美国的1/23。中国AI生态系统如今更擅长以更少的资源做更多的事情——这里面既有迫不得已的因素,也有主动设计。

对于上述问题,中美两国真正能谈的要比“首次AI对话”这类新闻标题所暗示的更少,而这或许是一个特性,而非缺陷。北京方面最有可能拿出的态度,或许是重申2024年11月APEC利马峰会所确立的原则,即决定使用核武器的控制权应始终掌握在人类,而非AI系统手中。这个重申对两位国家领导人来说没有任何成本,还能给双方提供一句合适的外交措辞。

第二点,是一些关于知识产权问题的姿态性表述,可能被织入2025年釜山峰会以来延续的那份更广泛的贸易休战协议之中。任何比这两点更具雄心的收获——例如签署一份可核查的蒸馏协议、一套互惠的API访问机制,或者在数字水印和模型评估上商定共同标准的协议——都会立刻撞上自2015年以来,始终困扰着中美在网络时代建立互信机制所面临的核查难题。

更有意思的故事正在远离“主角”们的地方展开。前沿模型论坛(Frontier Model Forum)据报就模型萃取攻击达成了信息共享安排;北京的安远AI(Concordia AI)公司与美国的AI安全研究人员之间展开了技术合作;2025年4月由中国和西方科学家共同签署了《关于全球人工智能安全研究优先事项的新加坡共识》;以及从AI安全研究所(AISI)网络内部涌现出的各类测试协议——所有这些才构成了实质性的“脚手架”,而两国领导人级别的会议,在最理想的情况下也会对这些努力的方向致以示意。

对于正在构建自身人工智能政策的亚太各国政府来说,眼下最相关的问题是:在这些“脚手架”当中,到底哪些会最终成为本国企业必须遵循的标准。日本、韩国、新加坡和澳大利亚都是AI安全研究所网络的活跃成员。印度主办了最近一届全球峰会。东南亚各国政府是运行在华为昇腾基础设施上的中国开源权重模型的接收方。未来任何蒸馏机制的大致轮廓,既会由华盛顿和北京之间的协议塑造,也同样会由这些国家实际采纳的标准来塑造。

美国过去三年来围绕硬件展开的辩论,其驱动力来自一种信念:算力即是命运,控制了芯片就控制了人工智能。这一信念并没有错,但它并不完整,而2025年和2026年发生的事情,已经令人很难继续假装无视这样的不完整。AI相关的能力如今通过软件传播,而软件从来不是美国出口管控架构设计所管辖的对象。华盛顿与北京的对话,最多仅能让双方正视这一点。但在经历了三年来大体拒绝正视的辩论之后,这件事本身已经算是一个开始。

(原文发布在日本“外交家”评论网站,原标题为:“中美科技外交的软件层级”。译文仅供读者参考,不代表观察者网观点。)

本文系观察者网独家稿件,文章内容纯属作者个人观点,不代表平台观点,未经授权,不得转载,否则将追究法律责任。关注观察者网微信guanchacn,每日阅读趣味文章。

责任编辑:郭涵
观察者APP,更好阅读体验

“少用油既健康,又爱国”,莫迪带头“勒紧裤腰带”

“与众多杰出人士一同前往伟大的中国,是我的荣幸”

“中国车出现在美国公路上,只是时间问题”

特朗普直说了:美国人经济状况啥的,我毫不在乎

“欧盟深知在稀土上几乎没筹码,没见过中方如此自信”