可能对人类构成深远风险?马斯克等千人呼吁暂停训练高级AI

来源:观察者网

2023-03-29 15:28

 

【文/观察者网 周毅  编辑 吕栋】

马斯克等1000名科技人士,日前签署了一封特殊的公开信。

据未来生命研究所(Future of Life Institute)网站披露,该网站曾以公开信的方式发起倡议,呼吁所有AI(人工智能)实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。截至北京时间3月29日下午13时许,在该网站上,这封公开信获得了包括马斯克在内的1126名人士的联名签署。

综合目前的公开资料来看,这项倡议的宗旨在于为人类留出时间,思考AI开发的合规性和安全性,并助力人类展开相关的工作。对于此,GPT-4认为,“6个月的时间可能对于实现这一目的具有一定的挑战性。”

未来生命研究所网站截图

公开信认为,高级AI可能代表地球生命史上的深刻变化,人类应以相应的关怀和资源进行规划和管理——但不幸的是,对应级别的规划和管理并没有发生。此外,最近几个月AI实验室们陷入了一场失控的竞赛(an out-of-control race),但包括这些AI系统的创造者们,都无法完全去理解、预测或者可靠地控制(reliably control)它们。

公开信写道,广泛的研究表明,具有与人类竞争智能的人工智能系统可能对社会和人类构成深远的风险,这一观点得到了顶级人工智能实验室的承认。

公开信表示,人们只应在这样的背景下去开发强大的人工系统:确信它们的影响是积极的,确信它们的风险是可控的。信件还援引了OpenAI(ChatGPT的开发者)在其最新声明中的表态,“在某个时候,在开始训练未来的AI系统之前,对它进行独立审查可能很重要。”

“现在就是那个时候。”公开信认为。

公开信呼吁,所有AI实验室立即暂停至少6个月的训练工作——对象是那些比GPT-4更强大的AI系统。公开信称,这种暂停应该是公开的和可验证的,并且包括所有关键参与者。如果不能迅速实施这样的暂停,政府应该介入并暂停。

“这并不意味着总体上暂停AI开发,”公开信表示,AI实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级AI设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督。此外,公开信还呼吁,AI开发人员必须与政策制定者合作,以显着加快开发强大的AI治理系统。

未来生命研究所网站显示,该组织成立于2014年,它的目标是“引导变革性技术造福于生活,远离极端大规模的风险。”网站信息显示,其注册地址在美国宾夕法尼亚州蒙哥马利县。经查证,在2020年6月联合国发布的《数字合作路线图》中,该机构是该活动在AI领域的民间倡议者(Champions)之一。

网站最新页面显示,在该公开信的联合签名栏,有众多大学学者、工程师和企业创始人和高管在列。例如“图灵奖”获得者约书亚·本希奥、特斯拉CEO马斯克、苹果联合创始人史蒂夫·沃兹尼亚克等。这份名单中也包括一些记者、教师和学生的名字。

未来生命研究所网站截图

对于此事,“GPT-4怎么看”?

ChatGPT在回答提问时表示,其原因为确保AI研究在安全和伦理方面的合规性,防止技术滥用,为制定有效规范和监管措施留出时间。对于这一行动的影响,GPT-4称,这将提高AI领域的安全意识,推动政策制定和监管措施的完善,促使AI技术更加负责任地发展。

当被问道,“在你看来,6个月的时间是否足以让人们实现这一目的?”GPT-4认为,虽然这段时间可以让政策制定者、研究人员和社会讨论开始关注AI安全和伦理问题,但要完全解决这些问题并制定全面的规范和监管措施可能需要更长时间。然而,6个月的暂停确实可以作为一个良好的起点,引发关注并推动相关方面加快行动。

“6个月的时间可能对于实现这一目的具有一定的挑战性。”

OpenAI网站截图

本文系观察者网独家稿件,未经授权,不得转载。

责任编辑:周毅
观察者APP,更好阅读体验

中国经济就像自行车,快了什么都好说

中方再谈美国否决:希望个别成员产生良心上的触动

他警告欧盟:在针对中国上多走一步,都会伤己

“居者有其屋”,中国房地产需要两条腿走路

以涉俄乌冲突为由,欧盟竟要制裁中印企业