郑戈:技术面前,伦理的解释权归谁是个大问题

来源:观察者网

2019-04-22 08:31

郑戈

郑戈作者

上海交通大学凯原法学院教授、博士生导师

【文/观察者网专栏作者 郑戈】

伦理委员会在最近一段时间不断成为新闻热点。

3月26日,谷歌宣布成立“先进技术外部咨询委员会”,希望通过哲学家、工程师和政策专家组成的团队帮助解决人工智能带来的道德风险。委员会原本计划每年举行四次会议,并编写报告,为谷歌的人工智能项目提供反馈,“为公司提供多元化的观点”。

然而这一重大决定宣布仅仅十天,4月4日,这个探讨“AI道德”的精英委员会就宣布解散。究其原因,则是这个由8人组成的委员会名单中,有两位专家遭到了来自谷歌公司内部和外部的强烈反对。

一个是美国保守派智库传统基金会的主席凯·科尔斯·詹姆斯,该基金会曾传播有关气候变化的错误信息,也是一个反对调节碳排放的智囊团。更重要的是,她对移民采取强硬立场,反对保护LGBTQ群体的权利。

另一个是一家生产无人机的企业老总戴安·吉本斯。2018年,谷歌曾为美国军方提供云人工智能以分析无人驾驶飞机图像,当时该项目遭到谷歌员工的强烈反对,吸纳无人机公司创始人进入人工智能道德委员会让人们担心谷歌会重蹈覆辙。

评估道德的专家自身的道德受到批判和质疑,很快这个摇摇欲坠的委员会也难以为继了,一次旨在美化公司形象的公关行动以公关危机的形式而告终,这是谷歌的管理层始料未及的。

超过2350名谷歌员工签署了反对任用詹姆斯的联名信(图片来源:网络)

从德国交通部伦理委员会发布自动驾驶汽车算法伦理指导意见,到贺建奎事件所涉及的医院内设伦理委员会。在信息技术和生物医学技术迅猛发展并遍及性地影响人类生活的今天,技术所带来的已经不仅仅是风险问题,还越来越多地涉及伦理争议。

即使一种技术是安全的,其风险是可控的,它是否应当被用于某种目的、某种情境?

这是一个科学家和技术人员无法给出明确答案的问题,或者说是一个任何专业人员所给出的答案都无法自带权威属性的问题。因此,无论是政府还是企业都试图通过设立跨学科的、有“广泛代表性”的伦理委员会来安抚公众,营造“不作恶”的表象。但不同国家的政治、法律和经济环境影响着伦理委员会的制度化形式、决策程序、功能和效果。

通过最近的一系列事件可以帮助我们理解伦理委员会和伦理审查在美国和欧洲呈现出的不同样态。

美国政府是一个毫不掩饰地为市场和资本家服务的政府。对技术应用的伦理审查主要是由各商业机构、大学和医院本身内设的伦理委员会来进行的。除非是在申请政府资助的场合,公权力并不主导或干预伦理审查。于是,伦理审查成为行业自治和企业公关的主要策略。

值得注意的是,在涉及人的科学研究和技术应用领域引入伦理审查机制,这本身也起源于美国。1932年,美国公共健康服务局(U.S. Public Health Service)在阿拉巴马州的主要招收黑人学生的塔斯基吉学院(Tuskegee College)启动了一项关于黑人男性中的梅毒现象的研究。这项研究旨在观察未经治疗状态的梅毒发展情况。研究人员故意不给数百名试验对象任何有效的治疗,以便观察梅毒如何导致失明、心脏病、痴呆乃至死亡(政府为试验对象提供免费丧葬服务)。

试验对象一开始被告知试验将持续六个月,而实际上这项试验一直持续了40年。1972年,一位塔斯基吉梅毒研究的参与者,彼得·巴克斯顿(Peter Buxtun)向媒体爆光了这项研究,导致参议员爱德华·肯尼迪紧急召集国会听证。1974年,美国国会通过了《国家科研法》,提出了在涉及人的科学研究和技术应用中引入伦理审查机制的要求。随后,美国卫生及公共服务部内设立了“人类研究保护司”(OHRP),负责监督临床试验。同时,所有从事涉及人的科学研究和技术开发机构也纷纷设立了“机构内置伦理委员会”(IRBs)。

美国人类研究保护司(图片来源:网络)

美国《国家科研法》还创设了一个“生物医学与行为研究中的人类主体保护国家委员会”,负责制定美国的科研伦理政策。该委员会于1978年发布了著名的《贝尔蒙特报告》(Belmont Report),其中提出了仁慈、正义和尊重人三大原则,作为科技伦理政策的指导原则。

但日常的伦理审查工作主要是由机构内置伦理委员会来进行的。这些伦理委员会虽然都有多个学科的以及机构外的成员,但它们长期与某个特定机构合作,难以避免地产生利益耦合,无法避免利益冲突。

美国法律只强制要求直接或间接受政府资助的科研机构设立伦理委员会,但许多行业协会和私营机构也纷纷设立了伦理委员会,以向公众展示自己是负责任、讲伦理的、值得信任的。然而,不断曝光的伦理和法律事件,无论是Facebook泄露数千万用户信息,还是杜克大学最近因其雇员使用伪造数据而支付1.1125亿美元与美国联邦检察机关达成和解协议,都显示出机构内置伦理委员会的无效性。

与Facebook一样,谷歌是一家吃数据饭的企业,不断卷入各种滥用个人数据的丑闻。虽然谷歌以“不为恶”(Don’t be evil)来自我标榜,但它的商业模式注定它不可能不为恶。用哥伦比亚大学网络法专家吴修铭教授的话来说,此类商业模式的实质是“创造出了一种智能工具,用以说服为数众多的人为了很少的一点儿娱乐和便利而交出如此之多的个人数据。”而且,一旦个人交出了这些数据,她们便无法再控制这些原本专属于个人的私密数据。

作为大数据掌控者,谷歌等企业每时每刻都在以公众并不知情乃至知情后会大惊失色的方式利用着海量的个人数据。但无论是谷歌还是Facebook的CEO们更加善于用公众喜闻乐见的方式来塑造自己的公共形象,隐藏自己“不可告人”的骚操作。

扎克伯格在国会山出席Facebook滥用数据的听证会(图片来源:网络)

美国企业的伦理立场选择遵循的是商业逻辑而不是伦理学逻辑。这一点在苹果与谷歌和脸书对待用户个人数据的不同态度上体现得最为明显。与谷歌和脸书不同,苹果是一家做产品而不是做数据的企业,而它的产品是主打隐私牌的。

比如,苹果公司曾经因拒绝政府要求披露用户信息而获得自由主义者们的普遍赞誉。2015年12月2日,美国加州圣贝纳迪诺发生了美国本土自911之后最严重的恐怖袭击,宣誓效忠“伊斯兰国”的赛义德·法鲁克(Syed Rizwan Farook)和塔什芬·马利克(Tashfeen Malik)在开枪射杀14人、射伤20多人后被警察击毙。联邦调查局查获了法鲁克的iphone手机,为了获得犯罪调查和反恐所需要的信息,它在获得法院授权的情况下向苹果公司发出了解锁该手机的要求。但苹果公司拒绝合作,公司总裁蒂姆·库克还在公司网站上发布了一封公开信,谴责联邦调查局的要求“破坏了我们的政府旨在保护的那种权利和自由”。

对苹果公司而言,这是一次成功的公众形象宣传。而对于美国的国家安全和公众的生命安全而言,这显然不是件好事。这个例子也凸显出,对企业而言,决定伦理选择的是商业模式。

与谷歌试图通过建立伦理委员会来美化公司形象不同,欧盟委员会发布的《值得信赖的人工智能伦理指导原则》更具有实质意义。实际上,这是欧盟对待大数据和人工智能的一贯政策的体现,与去年五月生效的《一般数据保护条例》体现着一样的思路,即防御美国和中国科技产业巨头对欧洲的“数字殖民”。

最早进入互联网行业的巨头企业由于累积了最多的用户数据而取得了绝对的优势,而这些企业主要集中在美国和中国。错过了第一次工业革命的亚、非诸国和“新大陆”如何沦为率先走上工业化道路的西欧国家的“殖民地”,这是一段大家都很熟悉的历史,而今天的数字革命又正在造成新一轮的洗牌。为此,欧盟和法国都专门委派专家小组起草了相关报告,旨在谋划欧洲在这一轮信息技术革命中的战略布局。

错过“先发优势”的欧洲担心来自中美的科技产业巨头的“数字殖民”(图片来源:东方IC)

法国数学家、菲尔兹奖得主和议员西德里克·维兰尼在他领衔起草的报告中写道:“对法国和欧盟来说,涉及人工智能的数据政策必须以主权独立和战略自主为目标而加以设计。一开始,其间的平衡必然是十分脆弱的,目标的实现需要领导者的远见卓识。但这是法国和欧洲发展人工智能的前提条件,只有这样我们才能避免变成中国和美国巨头的‘数字殖民地’。”

维兰尼报告所提到的“数字巨头”包括美国的谷歌、亚马逊、脸书、苹果和微软(GAFAM)以及中国BATX(百度、阿里巴巴、腾讯和小米)。至于他为何偏爱小米,而没有将显然更具实力的华为列上去,就不得而知了。

该报告主张法国政府和欧盟应当在整合数据资源、资助人工智能研究、打造人工智能品牌产品方面发挥积极主动的作用。“发展人工智能是主权国家的当务之急,”这是维兰尼反复强调的核心观点。伦理标准为国家利益服务是这篇报告的主要基调。

今年4月8日,欧盟发布了《值得信任的人工智能伦理指导意见》,提出了(1)人类主体性与监督;(2)技术稳健与安全;(3)隐私与数据治理;(4)透明性;(5)多元性、反歧视与公平;(6)社会与环境福祉;(7)问责制等七个方面的伦理指导意见。这些原则一旦转化为更具可操作性的政策、立法和指令,便可以一方面保护欧盟成员国的宪法价值和公民权利,另一方面有效抵御中美、尤其是美国数字巨头在欧洲市场上的无限扩张。

但伦理话语的问题在于:在价值多元的当今社会,我们很难将它同个人的以及小群体的道德偏好区分开来。即使在抽象层面上多数人都会同意人的尊严、正义、公开透明等基本原则,但在具体决策过程中如何解释这些原则并使之对决策产生真正的约束力,则是一个难题。

贺建奎“基因编辑婴儿”事件引发了科学伦理的全民讨论(图片来源:东方IC)

比如,在媒体上受到一致谴责的贺建奎本人也提出了自己的伦理原则:“我们拒绝基因增强,性别选择或是改变皮肤和眼睛的颜色,因为这并不能算是对孩子真正的爱。”“我们草拟了胚胎基因手术的五个基本准则,分别为:对有需要的家庭的悲悯之心、有所为有所不为(只服务于治疗和预防严重疾病,不服务于虚荣)、尊重儿童的自治、生活需要奋斗(基因并不能决定你的一切)、促进普惠的健康权。”这些原则看起来完全符合“国际标准”,而且贺建奎坚称自己信守了这些原则。

因此,在实践层面,伦理问题又转化了政治问题:谁有权作出伦理判断,谁有权执行这种判断。

由此可见,伦理准则、伦理审查和伦理委员会已经成为与人权一样的有效工具,可以帮助企业树立良好的公共形象,也可以帮助国家在国际竞争中赢得道德制高点和话语优势。今天的国际竞争不仅是科技和经济的竞争,也是制度文明的竞争。我国应当承担起大国责任,牵头塑造既符合中国国家利益又体现人类文明基本价值的国际伦理共识。基于对“无利不起早”的人性的清醒认识,我们应当将伦理考量嵌入到已有的“一带一路”等中国主导的经济合作框架之中,借此来推进体现中国价值的科技伦理和法律共识的形成。

本文系观察者网独家稿件,未经授权,不得转载。

责任编辑:戴苏越
谷歌 人工智能 伦理
观察者APP,更好阅读体验

土耳其暂停与以色列所有贸易

菲律宾称在黄岩岛已越过红线?中方回应

以色列警告美国:一旦逮捕令下发,我们就对它动手

涉及俄罗斯,美国又对中企下黑手

内塔尼亚胡警告布林肯:以色列不会接受