冯象:欢迎来到硬规则世界

来源:文汇学人

2018-12-10 09:41

冯象

冯象作者

清华大学梅汝璈法学讲席教授,《政法笔记》

【文/ 冯象】

这是一本新书,《我是阿尔法》,封面画着两个人:机器人高出一头,向人类伸出手来,可是那个抬头仰视的人身子僵直,不愿握手。

“原本草稿上,两人是一样大的。后来我建议机器人大点,人小点。”作者冯象先生说。

他说,国内学界讨论人工智能(AI),经常落入一个误区:把AI理解成了自动化问题。可是自动化,从发明轮船火车开始,产业升级“腾笼换鸟”的挑战,是人类社会一直在应对的,至少有200年了。人工智能之所以值得探讨,是因为地平线上升起了两片阴霾:大失业同AI军事化。终极的威胁则是,发展下去,人类可能会面临一个远比自己聪明的物种,其行为、性格与思想意识人绝对无法理解。这,才是新问题。

已故的麻省理工教授明斯基(Marvin Minsky,1927—2016),人称AI教父,曾说:“智能的力量源于我们自身广博的多样性,而非某种独一无二的完美原则所赐”(The Society of Mind,1986,p.308)。在他看来,本质上,人的感情和心理意识跟演算、逻辑推理没什么不同,都是智能的表现形式。人们引以为傲的各种智能,都可以还原为神经元相互作用的过程。

今天,有了大数据的条件,机器学习和神经网络研究突飞猛进。机器可以撇开“人类标注样本”或人的学习模式,自己寻找规律;或者基于海量的数据集,自我学习,实现升级。围棋机器人AlphaGo Zero经过三天自学,左右手互搏,下出来的棋,聂卫平估计,棋力高达三十段。这是人类的顶级(九段)选手如果不借助机器,穷其一生也难以领会的棋艺。

“如此精密复杂的机器智能,若是拿我们现在的法律规范跟教义学说,例如私法上的主体客体、侵权责任的认定标准,用这些教科书概念来讨论人机关系,分析各样后果,肯定是徒劳的。同样,人机伦理不能停留在抽象观念的推演建构,而应立足于人类社会在21世纪晚期资本主义阶段,所面临的深刻危机”;“想象人机关系,即想象人类的未来”。近日,冯象接受《文汇学人》采访,谈论了人机未来。

为换取便利和舒适,一键出让隐私

文汇报:冯先生,我们先聊聊一则新闻,苏富比拍卖涂鸦艺术家Banksy一幅名作。小锤落下,买卖成交,那幅画却逸出画框,自行切割成了布条。画家说,他在画框里藏了个机关,意在抗议资本市场拍卖艺术品。没想到,拍卖品这么“毁掉”,身价反而更贵了。

这令人想起人类学家喜欢讲的一个故事:部落祭礼半当中,突然跳进来一头老虎,搅乱了仪式。可是不一会儿,老虎就被纳入了这场仪式。换言之,部落祭礼具有很强的阐释性,连危机也能包容。是否资本主义体系也有这个能力,可以消解形形色色的反抗呢?

冯象:对,谁也不知道这家伙是谁。他小心翼翼从不露面,而且搞了这么个机关,巧妙地“骗过”了拍卖行,做得非常漂亮。不过问题也在这儿——看上去像是造反,实则并没有逃脱被市场机制收编、为文化冷战利用的命运。

此类反抗,从毕加索开始,套路都差不多。当然毕加索厉害多了,“造反”的范围广,劲道大,还参加了共产党。徐冰先生说,当代艺术是“一块像癌细胞一样的东西”,寄生在“整个世界经济、政治、文化的大的利益结构之内”。这话说到点子上了。寄生体不可能改变宿主的利益结构,反抗只是一种姿态。“那姿态其实是宿主体制运作的需要:那大体制需要一些癌细胞似的话语,包括行为艺术大腕儿什么的,来营造异见、贬低道德,或改写历史、转嫁责任”(《我是阿尔法》,页72)。

文汇报:但您认为,真正有可能颠覆资本主义体系的,是人工智能。为什么?

冯象:人工智能的近期风险,首先是“机器换人”,波及的行业有增无减,故称“大失业”;再有就是AI军事化。但在全球资本主义体系下,这趋势是无法控制的。竞争太厉害了,谁也不敢落后;谁不机器换人,不军事化,谁完蛋。这两样,人类过去没经历过,一个非常痛苦,一个非常危险。

危险,还因为AI技术不仅是“大国重器”,同时也跟日常生活搅在一块儿。智能终端(如手机)渗透了我们的学习和工作、家庭内外,而且一刻不停,永远在记录,在挖掘,在上传。

如今我们常态的人与人之间的关系,是人通过机器跟另一个人接触:打招呼、聊天、点赞、炫酷或者骂人吵架。人与人直接交流的范围在萎缩,而人机捆绑(包括人—机—人模式)的范围在扩大。直至我们每个人像一片电脑插件,插入一张无所不包的天网,由它发布的最新应用程序(App)来组织安排每日的生活。

文汇报:这样一个通过机器和他人发生关系的智能社会,从法学角度看,有什么特点呢?

冯象:传统上,西方式法治社会是这样的,颁布法典,做到“有法可依”还不够;必须通过大众文艺和媒体反复灌输一套“真理”,诸如宪法至上、司法独立、“把权力关进制度笼子”之类,让老百姓内心形成规则意识,法律(包括恶法)才能得到普遍的遵循。不然,有法不依,法不责众,法治就成了皇帝的新衣。

这好好干资本主义的规则意识,便是韦伯所谓资产者/发财奴的伦理,美其名曰“新教伦理”。不过,他是反果为因,说颠倒了,以为人是为了获拯救,才干下地狱的勾当即发财的。可其实呢,“富人进天国,比骆驼穿针眼还难”(《马可福音》10:25)。

智能社会不同,它是数码规则引领潮流,算法制定,硬性的。硬规则的制定和实施,大多是商家行为,无须走政治程序酝酿论辩、表达民意,也不靠公众/用户的内心约束或法治意识。你看我这手机,没有下载打车软件,我就被排除在了打车出行的硬规则之外。如需打车,就要请年轻人帮忙,获准进一趟硬规则世界。

中国社会,虽然宣布了法治“初步建成”,似乎还是硬规则占优势。相对本本上的法条或软规则,国人显然更认可“物理规则”。比如单位入口的路障、马路中央的隔栏,没有这些物理屏障即硬规则,光是立一块牌子,贴一纸告示,怕是不起作用的。

这个现象,应了一句流行的口号,“法无禁止皆可为”。意谓凡法律(软规则)缺乏执行力的地方,什么事都做得,从高铁霸座、P2P骗局到“世界首例基因编辑婴儿”。常有人怪罪国人的民族性格。

但回想起来,硬规则兴盛,软规则衰落,肇始于新时期,上世纪80年代,是跟整个社会的职业伦理、政治伦理的变化同步的。因为之前,总体来说,人比较规矩。不像现在,家家户户门窗安得比动物园的铁笼子还严实。

文汇报:像支付宝的推广,我们这里势如破竹,但在国外,包括发达经济体,互联网金融并没有这样容易被接受。

冯象:没错。习惯了硬规则,对于智能时代层出不穷的“便捷服务”,就不会太反感;自媒体网络舆论,也容易接受资本的各种关于创新的宣传。智能产品的推广,不要求培育公众的法治意识。因为在我们依托AI建设的“美好新世界”——硬规则世界,日常生活中的每一次交易,都是数码信息的交换,用户都100%执行了硬规则指令:提交个人信息。

如此高效的执法,是“法治社会”没法抗拒的。原先受制于执法成本,很多事情“睁一只眼闭一只眼”。倘若严格执法(软规则当硬规则用),如欧盟今年实施的《通用数据保护条例》全面加强个人隐私保护,则不免拖累了智能产业。现时欧盟的AI研发跟市场占有,已经明显落后于美、中了。

智能社会,又名零隐私世界。扎克伯格看得很准,用户不在乎隐私,愿意拿它换取便利和舒适。反正衣食住行都离不开AI了,让它24小时追踪我们,收集一点个人隐私生理信息,又算什么?你想,按照旧的法治标准,隐私是多重要的权利,在许多国家属于宪法保护。可是这么快,大家就抛开旧法治,一键出让了隐私。

如今好些大学的学生宿舍,进门都是人脸识别。还有不久前曝光的华大科技与华山医院,未经许可同牛津大学开展遗传资源的合作研究,违规收集孕妇基因信息,受到科技部行政处罚。基因信息也是个人隐私,但此类科研涉及重大公共利益,政府必须管一管。

文汇报:真是可怕。您说的这种老百姓在不知情或者无所谓的情况下拱手交出个人信息,会不会催生一种新的法治形态呢?

冯象:对呀,硬规则也是一种法治。只不过立法由公权力向资本开放,很大程度上跳过了民主程序,包括公共辩论、利益集团游说,变得“单纯”而高效了。它只用产品劝说,用广告取悦,用绝佳的用户体验,抚摸人心底最隐秘的欲望;而你只要开始用这产品,做一回用户,就是硬规则的胜利。

如此,在眼花缭乱的新产品新服务新应用背后,“赤裸裸”地,解除伦理约束,露出了资本的獠牙。资本不是政府,更不是人民政府,它不承担人民福祉、社会保障的责任。硬规则的实施,也无须缝一片“新教伦理”的遮羞布。相反,依照资本逐利的本性,硬规则败坏着一切伦理,并从伦理败坏的社会汲取养分而滋长,蔓延,覆盖我们的生活。这智能化的法治因而变得难以掩饰社会矛盾,渐渐失去了法治的“教化”或生产法盲之用。而新法治的建设,原本放在第一位的,便是这意识形态功能。

传统上我们归于私法的问题,都会变成公法问题

文汇报:如果是这样,政府和企业比较合理的关系是什么?公权力应该全面出手吗?

冯象:这个问题我在书里也讲到了。我的看法,随着社会深度智能化,传统上我们归于私法(民商法)的问题,都会变成公法问题,亦即变为“国家同企业、公众和政府以及政府各部门之间的法律关系”(页195)。这倒不是因为一些经济学家成天担心的“国进民退”,而是AI硬规则技术所致。

什么意思呢?既然AI如此成功,核心平台垄断了越来越多的交易,而私企开发的网络金融工具又天天攻城略地,金融风险大增,那么平台的运作就不能脱离政府监管了,一如其创立不能没有政府支持。“央行为何要建网联平台,清算第三方网络支付?为了防止电商巨鳄独占金融大数据,造成国家可能受AI资本要挟的危险”(页208)。

换一角度,也可以说,AI经济如同AI尖端技术,也是国家与社会安全问题。国安战线,不可能交给任何私企负责。故只要平台的垄断再上一个台阶,踩到国家的底线——物联网底层数据汇总一处,算法成为法律(即硬规则),私法就开始消亡了。

所以说,“AI发展到高级阶段,人类迫于形势,为了生存繁衍,其实仅有一个选项:公有化”(页209)。

文汇报:谈到公有制,圣西门曾有这样的论断,大意是未来共产主义社会可能通过对物的管理而非对人的统治来实现。您在书中也指出,人工智能或将是我们走向共产主义的捷径:“共产主义能否提前实现,不待阶级斗争结束,国家消亡?”

冯象:惟愿如此。因为另一条路,资本主义私有制走到黑,恐怕阶级斗争只会益发激烈。当贫富鸿沟固化,财富高度集中,一切产品、服务连同物联网底层数据,彻底知识产权化,那会是什么景象?“超人”统治,法西斯暴政。

阿西莫夫的“机器人三定律”,根本的一条,是机器不得伤害人类。但是按照资本主义的逻辑,机器如果比人聪明,学会了资本及其附庸的自私自利,它干吗老老实实伺候人类,而不“以其人之道还治其人之身”?所以我在书里说,待到那一天,AI的飞速进步,将迫使人类在改造世界的同时也改造自己,第二次起来,废除普遍的剥削与压迫,做共产主义新人。

什么样的人,配得上新的人机伦理,可称新人呢?无非是“毫无自私自利之心”,品德“高尚”“纯粹”,所做的一切都“脱离了低级趣味”并且“有益于人民”。这样的人联合而成一个新社会,才能确保“人与人、人与机器、机器与机器之间,要由共同的世界观价值观维系。否则,就走不出资本主义,消除不了战争和奴役”(页212)。

共产主义,自古便是人类家庭生活和亲密友谊的一般理想;一如合作劳动、共享收成,是人的“本性”,或物种繁衍优势(见拙文《给未来的人们留个纪念》)。

文汇报:您一定关注到,最近麻省理工获得捐赠,筹建计算与人工智能学院。捐赠者苏世民先生说,选择麻省理工,是因为它“专业知识和价值观都适于担任AI的‘真北’(true north)”,而新“学院对道德的关注至关重要,因为……AI改变社会结构的力量越来越大。如果不加控制,这些技术最终可能伤害人类。”

冯象:我太太是校友,收到了校长关于建院的信。校长也非常强调,前沿科技须有价值观的指导同伦理约束。他说,人工智能有几个难题,一是懂的人太少。即使在麻省理工,90%的人也所知甚少,更别说公众和政客了。第二,AI技术的社会风险极大,亟需推动人机伦理研究,探讨规制的理论与方法。第三,至少迄今为止,AI加剧了贫富分化,使得大量资源集中到一小撮人手里。

我们可以补充一点:AI技术因为广泛用于日常生活,并迅速军事化,受市场机制的激励,很容易价格“白菜化”。一旦做成廉价商品,就更难有效管制了,不论订立多少部法规、国际条约。这方面不乏前车之鉴,但在资本主义市场经济的条件下,前景不容乐观。

文汇报:人工智能的发展令我们的生活发生这么深刻的变革,会不会推翻“理性人假设”等西方经济学、法学的基础理论呢?

冯象:“理性人”或“经济理性人”(恩格斯管他叫“英国人”)假设,是资本主义正当化叙事的文宣重点,有年头了。在中国亦不例外。我总觉得,这假设跟19世纪市场资本主义处于“初级阶段”、司法技术和侦察/监控手段不甚发达有关。假说扮作公理,即可把许多疑难问题、无法或不便处理的纠纷等等,挡在政法制度的门外;从而使司法程序复杂化,增加诉讼成本,遮掩实质规范所保护的资本利益和特权。

理性只是人这个物种的众多能力之一。以生物学心理学观之,人若是想修炼成一个“经济理性人”,太难了。否则发财当资本家,何须“新教伦理”呢?还是文学家艺术家敏感,他们很善于描绘人不那么理性的一面。尤其进入资本主义时代,几乎所有伟大的文艺作品,都是对“理性人”的批判、嘲讽或厌弃。

所谓零隐私的人,也即硬规则之子;他心底的欲望和阴影、一闪而过的念头,全在“天眼”关照之下。理性人假设对于司法,犹如对于市场营销网络诈骗,基本是多余的了。也许经济学、法学用作文宣,“理论滞后”有别的考量?

当机器人获得独立的自我意识,人机关系会变得复杂

文汇报:西方世界有奴隶制的传统,是否也反映在他们对机器人的态度上呢?我的意思是,雅典民主是建立在保有奴隶的基础上的,因为大量使用奴隶劳动,自由民才有时间精力参与城邦政治。资本主义兴起后,承担这一角色的是殖民地人民和黑奴;到了全球化时代,则是第三世界的打工仔。今天AI兴起,假想的对象变成了机器人。但是否有可能,这对主奴关系发生反转……

冯象:学界讨论人机伦理,例如阿西莫夫三定律,往往隐含一个前提:主奴关系。可是总有一天,机器的才智会远超人类,主奴关系就维持不了了。

其实,只要机器获得独立的自我意识,即便毫无当人类主子的意愿,人机关系(对于人类)也会变得异常复杂。

常有论者不信AI会发展出自我意识。然而在AI学界,明斯基他们早已确认了这一可能。而机器一旦演进到能够区分人我、自我保护、自我复制(即繁衍)的水平,就不能把它看成是一个没有自我意识而被设定为人类仆役的物品,或一件聪明的工具。

相反,机器将学会做道德价值判断,会追求并维护自身利益,还会有自尊心,有自己的朋友圈,乃至爱欲嫉恨等各样感情。

那时,它将如何看待我们?注意,AI的自我意识演进是不可逆的;我们无法逆转历史,“穿越”亦非明智的选项。

所以明斯基说,他很幸运,这辈子不用面对这一困难选择。但也有学者认为,他的“感知器”(Perceptrons)理论“误导”了学界,是机器学习和神经网络研究在上世纪70年代陷于停顿的罪魁祸首。或许我们需要一位新的明斯基,就是以他的权威和洞见,劝喻人类放慢脚步,不妨再过一个漫长的“AI冬天”;以便我们能有充裕的时间做好准备,全面规划,与AI携手(见利求同《隐私的未来》,载《文化纵横》6/2018)。这样留有余地,也许风险会小些。

文汇报:最后,冯先生,如果让您开一门新课,“人工智能与人类未来”,您会挂出一份怎样的课前阅读/视觉材料呢?

冯象:这些内容,我们课上每年都讨论的。不过我只讲七八本书,玛丽·雪莱的《弗兰肯斯坦》,歌德《浮士德》,马列经典同中国革命文献,包括回忆录和年谱。并由此上溯西方宗教的乌托邦传统,如耶稣运动的穷人福音纲领等等。

论文选题及相关材料,我总是让学生自己找,因为多数是研究生选修,也有三五个优秀的本科生。他们往往想法很好,但不知如何着手。因此特别需要鼓励,去接触社会现实。无论电竞、手游的流行文化/异端生成机制,还是下工厂农村调研,和农民工姐妹一起站到流水线上,经受硬规则的盘剥,都是那“已经来到”的“未来”的一个征兆。目的是给他们一个锻炼机会,摆脱教条主义,反思旧法治衰亡之际,主奴关系的根源。

这一代年轻人大学生,焦虑迷惘的不少。我希望,探索人机伦理能够帮助同学们找到人生的方向,从而当机器换人全面铺开之日,能够把阅读与思考化为行动的勇气。

(本报记者 李纯一 见习记者 陈瑜)

责任编辑:陈轩甫
人工智能 法律
观察者APP,更好阅读体验

重庆通报“燃气费异常”:燃气集团党委书记被免职

“伊以都在降调”,国对国直接打击结束?

以色列“有限复仇”:选在了伊朗核计划中心

以色列“报复”开始:伊朗多地传出爆炸声

5.3%,一季度“开门红”能转化为“全年红”吗?