熊节:中美人工智能对话,我对美国政府的觉悟并不乐观
来源:观察者网
2024-05-16 08:44
【文/观察者网专栏作者 熊节】
5月14日,为落实中美元首旧金山会晤共识,两国代表在瑞士日内瓦举行中美人工智能政府间对话首次会议,就人工智能科技风险、全球治理以及各自关切的其他问题进行交流。
据《华盛顿邮报》报道,美方参加此次会谈的主要代表,包括国务院关键技术和新兴技术代理特使Seth Center博士(曾担任白宫国家安全委员会的国家安全战略和历史主任)、国家安全委员会技术与国家安全高级主任Tarun Chhabra(曾在白宫国家安全委员会担任战略规划主任和人权与国家安全问题主任、以及两任国防部长的演讲稿撰写人)。
美联社的分析认为,美方在这次会议中的主要目标是“一窥中国政府对人工智能的想法”、“就如何提高人工智能的安全性展开坦诚讨论”,尤其是“人工智能被武器化”的风险。两名主要代表的身份背景可以说验证了这一分析。
中美举行人工智能政府间对话首次会议
美国政府对AI风险的认知,在去年11月30日拜登总统发布的《关于人工智能的安全、可靠、可信发展和使用的总统令》中有集中的阐述。从这份总统令及白宫的官方解读中可以看到,美国在AI领域的担忧包括以下几方面:
1.关键基础设施中使用AI的安全、可靠和可信,以及由于不安全、不可靠、不可信的AI可能导致的化学、生物、辐射、核、及赛博风险。
2.利用AI研发危险生物材料的风险。
3.利用AI生成内容(AIGC)欺诈或制造假新闻的风险。
4.美国人隐私数据泄露的风险。
5.AI制造或强化社会既有歧视(尤其是种族歧视)的风险。
6.AI造成工作环境恶化、工作机会减少的风险。
7.美国失去AI领域全球领先地位的风险。
从上述7个方面的风险评估中可以看到,拜登政府最重视的风险,还是AI被假想中的敌国武器化、对美国国家安全造成危害的可能性,体现了美国近几年来一贯的对抗思维模式。不过这些风险评估倒也不是完全空穴来风。
以“利用AIGC制造假新闻”为例,就在最近,在一条快速爆火的短视频中,白宫发言人让-皮埃尔在新闻发布会面对记者提问时,声称“二战是美国和乌克兰联合起来打击希特勒和斯大林的战争”。但很快这条视频就被证实是利用AI技术伪造的:白宫新闻发布会并未提及这个话题,发言人也从未做过这番论述。据说这条视频最初开始在互联网上流传时配了俄语字幕,因此有人怀疑是俄罗斯制造的假新闻。
随着Deepfake等利用人工智能伪造视频的技术日益成熟,类似的伪造名人、政治家发言的视频也越来越多。不仅普通网民难辨真假,连媒体也时常上当受骗。前面所说的这条短视频在互联网上流行以后,我国几家主流媒体的视频号也相继转发,并配上了中文字幕。
AIGC制造的白宫发言人让-皮埃尔假新闻
另一方面,核实视频信息也确实并不容易。近两天中文互联网上又在流传一条题为“特朗普正式支持TikTok,向封禁TikTok宣战”的短视频,笔者认为也很有人工智能伪造的嫌疑,但尚无法验证。人工智能技术的发展使炮制这样的假视频、假新闻变得特别容易,确实构成了对社会秩序的威胁。
为了应对这些风险,拜登政府采取的首要措施,就是加强政府对AI领域相关企业的监管与合作。白宫对总统令的官方解读开篇第一条就强调,要求“最强大的AI系统向美国政府分享其安全测试的结果及其他关键信息”,并提出:根据《国防生产法》(Defense Production Act),总统令要求开发任何对国家安全、国家经济安全或国家公共健康和安全构成严重风险的基础模型的公司,在训练模型时必须通知联邦政府。
《国防生产法》是1950年9月8日美国国会为了入侵朝鲜而颁布的法律,立法通过之后一周,美军就在仁川大规模登陆。这项法律对军事物资和设施的生产及分配进行国家管制,在入侵朝鲜和冷战期间对美国军工复合体的快速发展和高效运转发挥了重要作用。拜登政府援引这项法律监管AI行业,很明显已经将AI视为未来战争中的重要资源,并进一步明确几家主要的AI企业在军事-工业-情报-科技复合体中的重要地位。
总统令提出的另一项措施也很值得关注:建立一个先进的网络安全计划,开发人工智能工具来发现和修复关键软件中的漏洞。正如笔者在此前的一篇文章中介绍过的,软件产品中绝大部分、经常多达99%的代码是以依赖的形式引入的,厂商自主编写的代码通常只占整个软件的1%左右。一个典型的现代商用软件通常会依赖几千、上万个开源组件,其中任何一个组件被发现安全漏洞,都可能给整个系统造成损害。
据实时通信软件Telegram的创始人Durov披露,美国政府曾试图说服一名Telegram的员工在代码中使用某个特定的开源库——这个开源库很可能已经被美国情报机构渗透,任何使用该开源库的软件就会无声无息地向美国政府打开“后门”。
不难想象,如果某个国家的情报机构掌握了大量尚未被IT业界知悉的安全漏洞,它就会获得大量机会侵入全世界的互联网系统,进行大范围监听、甚至进行网络破坏。而使用AI来辅助发现关键软件中的漏洞,很有可能将获得这种可利用的漏洞的机会提高一到两个数量级。打个形象的比喻,这个所谓“先进的网络安全计划”,就是一个现代网络战争的智能化军工厂,源源不断地产出可以用于入侵敌国网络的武器。
2023年10月30日,美国总统拜登在华盛顿白宫签署人工智能监管行政令。新华社发(亚伦摄)
整个总统令中几乎没有提到AI与传统产业的结合,这一点也并不出人意料。在整体去工业化的大背景下,美国的AI产业发展高度虚拟化,与实体产业结合很少。然而总统令中有一处AI与实体产业的结合点,应当引起注意:防范利用人工智能设计危险生物材料的风险。
今年4月29日,白宫宣布相关政府部门已经“建立核酸合成筛选框架,以帮助防止滥用人工智能设计危险生物材料”、“商务部还努力与私营部门合作,制定技术指南以促进实施”、“各部门将要求接受政府资助的项目实施方,只能从经过筛选的供应商处获得合成核酸”。
解读一下,上面这几句官样文字透露出的信息就是:已经有企业在利用人工智能“设计危险生物材料”了,并且政府将一方面限制其他企业进入这一领域、另一方面指定相关的政府采购只能在有限的企业范围内选择。简而言之,已经有“设计危险生物材料”的企业被纳入了军工复合体。总统令中的相关内容,很有可能就是这家/这些企业推动写入的。联系到美国过去包庇731部队战犯、接收日本细菌战资料、在朝鲜战场进行细菌战、在德特里克堡研制生物武器等行径,AI在这一领域的应用着实令人担忧。
总统令中也提到了一些过去十多年来反复被提及的国内问题,例如种族歧视、劳工待遇、教育、系统性剥削、歧视性执法等。早在AI技术取得大发展之前,美国已有很多有识之士批评互联网和大数据会固化并加剧这些社会问题。但掌控着数字空间的几家“科技巨头”(如Google、Facebook等)对学界和民间的批评一贯置若罔闻。例如2018年,“Data for Black Lives”组织的创始人Milner以公开信形式呼吁Facebook与该组织合作,解决Facebook平台上存在的系统性种族歧视问题,但Facebook对此没有任何回应。
到2021年,发表在《华盛顿邮报》的一篇文章指出,Facebook的仇恨言论检测算法显然仍存在严重的种族歧视:针对犹太人的刻板印象和仇恨言论会被该平台禁止,而针对黑人和有色族裔的诽谤和种族主义语言则不被惩罚。现在,掌握AI技术的是同样的几家科技巨头,他们是否会在拜登总统令的号召下整改这些已经被批评了十多年的问题,笔者对此并不乐观。
从去年11月的总统令之后,美国政府展现出了很强的执行力:多个政府部门加大了招聘AI人才的力度,并开设了“ai.gov”网站专门跟踪汇总“确保美国在安全、可靠、可信的人工智能创新方面处于领先地位,在利用人工智能机遇的同时降低其风险”相关的信息。总统令颁布后的90天(1月29日)和180天(4月29日),白宫分别公布了相关项目的进展情况,列出了各部门已完成的数十项任务。鉴于美国政府一贯以公私协作的方式开展工作,笔者认为这反映出几家AI科技巨头企业正在积极地向政府施加影响。
据笔者了解,我国对于AI潜在风险的认知与美方大同小异。但在实际的风险应对和产业促进的措施上,两国就体现出了很大的差异。
美国一边宣称要避免AI武器化,一边积极地将科技企业纳入军事-工业-情报-科技复合体、将AI技术纳入未来战争武器库——我们当然还记得,Google是如何与美国军方紧密合作,Facebook又是如何积极干预多个国家的政治。
而中国的AI战略则更注重赋能实体经济,成为推进现代化产业体系建设、发展新质生产力的动力。这也解释了为何我国官方对大模型、AIGC的态度相对冷淡,因为尚未看到能聊天的ChatGPT、能画画的Midjourney、能做视频的Sora究竟应当如何转化为工业、农业的新质生产力,尽管这些工具显然在意识形态战场上很有转化为新一代武器的潜力。对于AI可能引发的国内社会问题,我国也通过《互联网信息服务算法推荐管理规定》、《生成式人工智能服务管理暂行办法》等监管措施尝试解决。但由于两国社会制度的重大差异,这些国内经验在多大程度上对美国有参考借鉴意义尚且存疑。
基于如此差异巨大的出发点,美国业内专家对此次中美人工智能政府间对话期望不高,认为这很可能只是双方互相认识的一次会议,可能不会产生什么具体结果,只是启动相关对话。
避免AI被武器化、释放AI对人类生产力的促进作用、共同解决AI带来的社会问题,这是全世界都期望看到的进展,也是中美两个最重要的数字科技强国不可回避的责任。如果美国能放下对抗心态,真诚地与中国开展合作,而不是试图独占AI武器、率先占据未来战争的优势地位,那将对AI发展历程发挥很大的正面作用。但是,从现有的种种迹象来看,笔者对美国政府的觉悟并不乐观。
本文系观察者网独家稿件,文章内容纯属作者个人观点,不代表平台观点,未经授权,不得转载,否则将追究法律责任。关注观察者网微信guanchacn,每日阅读趣味文章。