观察者网

郑戈:在鼓励创新与保护人权之间——法律如何回应大数据技术革新的挑战

2016-08-13 09:10:44

大数据技术是当代最引人注目的科技革新,其兴起也引发了一系列的伦理和法律问题。法学界目前讨论得比较多的是大数据分析对隐私权构成的威胁。但是,大数据技术的广泛应用实际上正重塑着整个法律体系运作于其中的社会空间,改变着大数据掌控者(包括国家和商业机构)与公民个人之间的权力关系,并创生出许多无需借助法律的社会控制方式。大数据技术使个人变得越来越透明,而权力行使者却变得越来越隐秘。因此,我们一方面要承认大数据技术发展的进步性和不可避免性,另一方面也要正视它对权力制衡、阳光政府、公正程序和权利保护等核心法律价值的挑战。创新需要法律的支持;而给创新套上缰绳,使其不至于走向威胁基本人权和公共福祉的道路,也需要法律的约束。我们需要探寻一条鼓励创新和保护个人权利之间的允正中道。

设想你是一位大数据时代的时尚青年:你脸上戴着谷歌眼镜,手上拿着苹果手机,手腕上戴着苹果手表或Fitbit智能手环,脚上穿着耐克智能运动鞋。你大部分醒着的时间都在上网,即使在没有上网的时候,你的可穿戴设备们也在上网,把你的位置、运动状态乃至心跳、脉搏都传送到某个服务器。

你成了一个量化的自我(Quantified Self,简称QS),一个被设备和网络监控、测量和管理的人。你可能生活在一个智慧城市,声音识别、人脸识别、指纹识别、掌纹识别、虹膜识别、视网膜识别、体形识别、键盘敲击识别、签字识别的生物测定装备和智能水表、智能电表、智能气表、智能保安系统遍布你的居室、小区和城市各处。

你可能感到生活极其便利,然而总觉得有哪里不对。因为你经常接到陌生人的电话,他们了解你的个人信息,并向你推销量身定制的产品。你生活中不愿意被人知道的事情有时突然出现在网上,被陌生人和熟人围观。警察有一天敲开你的家门,要求检查你的硬盘,说你下载了大量日本成人动作片。你感到自己成了一个透明人,有某些机构、某些人比你自己还了解你。

这不是科幻小说,而是今天的现实。上面讲的每一件事情,都有现实的大量例子。比如,2011年,西方许多媒体都报道了可穿戴设备制造商Fitbit公开用户性行为信息的丑闻。为了鼓励交流、经验分享和竞争,Fitbit将用户的运动资料连同他们注册的个人信息默认设定为自动在用户圈子公开(类似于微信运动的情况)。只有当用户在隐私设定里选择了不公开时,这些信息才不会被分享。Fitbit设计的界面里除了包括行走步数、睡眠和卡路里消耗等项目外,还有性运动(sex-ercise)。200多位用户的“性运动”信息在他们不知情的情况下被分享,而且可以在谷歌搜索中被找到。在事情曝光后,Fitbit公司才修改了程序设计,把不公开作为默认设定。Fitbit并没有侵犯隐私权,它没有到别人家偷装摄像头,没有派人偷拍,它只是自动发布你自愿购买并穿戴的手环所上传的信息。因此,它没有违法。毕竟,同意者不能主张受到损害(Volenti non fit injuria)是一项体现到各种法律规则之中的古老法律原则。

这一切之所以可能,是因为互联网信息技术已经发展到“大数据”和“物联网”时代。连接到因特网的不再只是个人电脑和服务器,而是各种各样的物品,小到智能手环,大到整个住宅。这些采用了智能测定技术(smart metering)的物品会把测度到的相关数据通过网络上传到存储装置。而云存储和云计算的出现又大大降低了存储和处理数据的成本。

正如上面所展开的基于现实的思想试验所揭示的那样,这一系列技术变革正在冲击着现有的法律概念和法律思维方式,呼唤着法律和规制上的范式转换。本文试图从总体上分析一下大数据时代技术革新对法律思维方式的冲击,以及可能的法律应对措施。

大数据对当下法律思维范式的冲击

迄今为止的整个法律概念体系都起源于农业社会,无论是乌尔比安时代的罗马还是亨利二世时代的英国。工业化和城市化虽然带来了一些概念和原则变化,以应对“事故共和国”的新问题,比如严格责任原则补充了侵权法中的过错责任,工伤事故保险制度补充了传统的侵权法救济模式,但这种改变是局部的。因为法律总体上还是假定责任源自于过错,过错损害了法律确定要保护的权利和利益,导致了损害结果,有损害就要有法律救济。这种体现行为主义导向和矫正正义的法律观至少仍是现代私法体系的基础基于这种原理,法律总是滞后于损害的,只有当主观过错促生了具体行为,行为造成了实际损害之后,法律才能介入,介入的目的也是恢复此前的状态

互联网的出现和普及改变了人们之间的交流方式和互动方式,而大数据技术的发展则使互联网的潜能发挥到了一个新的量级。大数据科技与认知科学和人工智能的结合使行为主义很可能变为明日黄花。预测性和引导性数据分析可以通过个人化的识别、分析和干预“植入”意向和行为动机,从而改变法律的作用场域。

所谓大数据,指的不是“大”的数据,而是数据的海量存储、分析和处理技术。它包括三个层次的含义。

首先是物理层次,涉及到数据的量(Volume)、产生速度(Velocity)和多样性(Variety)。以量为例,其计量单位从兆字节(MB)、吉字节(GB)、太字节(TB)转变为拍字节(PB)、艾字节(EB)乃至尧字节(YB)。2012年,沃尔玛平均每小时就产生2.5拍字节(每拍字节=250字节)的数据,涉及到超过100万次交易。而Facebook每天则处理着超过25亿条内容(包括链接、评论等)、27亿次点赞和3亿张照片。

由于每时每刻都在生成大量的数据,大数据变得更大的速度是惊人的。而数据所涉及的类型也十分多样,从文字、图像、音频、视频到感应器读数和手机发送的GPS定位信号。

其次是分析技术层次,大数据分析技术能够很快完成数据融合(Data fusion),在很短时间内赋予非结构化的数据一定的结构,从而能够为决策和行动提供明确的参照系。

再次是社会层次,大数据之大在于它改变现有的生活方式、消费习惯、城市管理、交通管理、医疗卫生、教育科研等社会方方面面的能力和潜力。

从法律的角度看,大数据改变着个人与政府、个人与企业、个人与个人的权力关系格局,挑战着法律回应社会问题的方式。

第一,个人意图的边界以及相应的主观过错概念变得模糊不清。个人披露私人信息显然是为了获得便利、享受服务,在效用的引诱下,个人最终披露的信息将是海量的、全方位的。就事论事,在一次次具体的信息披露中辨别个人是否同意、是否明知个人信息会被用于某一特定用途变得越来越困难。个人数据在大数据分析中的最终使用情况已经远远超出个人的意图范围,甚至超出个人的认知范围。

第二,数据的实际占有者与使用者之间的界限也越来越难以判定。互联网的特性使得分享、复制和转存变得异常便捷。哪怕最初的数据占有者已经删除了相关信息,这些信息仍可能弥散在浩如寰宇的虚拟空间中,无法确定会被何人所利用。

第三,正因为如此,过错的判断越来越困难,当明显的损害结果发生后,要追溯到最初的过错,往往需要经过无数个环节,每一个环节上都可能产生“蝴蝶效应”,几何级数地放大损害结果。因此,最初的过错可能是微不足道的,在法律上属于不应当干预的。

第四,过错与损害结果之间的因果关系越来越难以确定。由于数据传播渠道的多元性和复杂性,判定因果关系越来越不可能。实际上,正如大数据分析中相关性已经取代因果性成为解释和预测法则,人们在损害结果发生后往往也只能找到相关因素而不是决定因素。大数据理论家迈尔-舍恩伯格指出:“知道‘是什么’就够了,没必要知道‘为什么’。在大数据时代,我们不必非得知道现象背后的原因,而是让数据自己‘发声’。”但因果性仍然是确定法律责任的要件之一。这使得法律思维至少与受大数据影响的人类生活领域中的事实情境发生了偏离。

第五,大数据存储和处理使得政府和其他大数据拥有者能够更准确地作出预测,从而防患于未然,采取非惩罚性的干预措施改变事情的发展轨迹。这些干预措施的意图只有干预者自己才知道,因此实际上减损了个人意思自治的范围,其法律意涵尚待澄清。

第六,但最重要的是,大数据技术的发展正在使孔德在一个半世纪前试图建立的“社会物理学”成为可能。按照孔德的设想,随着理性的科学认知的不断推进,社会科学最终将发展到物理学的“成熟状态”。人们将可以通过观察、统计和分析而发现近似于自然规律的社会规律,从而“研究现状以便推断未来”。在孔德的时代,由于技术手段的欠缺,他的野心还无法变为现实。基于有限样本的统计分析,还远远无法使社会预测达到物理预测那样的精准性。但大数据存储和分析已经使样本分析有可能为整全数据分析所取代,并且日益实现动态化和分析者与对象之间的互动化。

正如当代社会物理学的鼓吹者彭特兰所言:“社会物理学是一门定量的社会科学,旨在描述信息和想法的流动与人类行为之间可靠的数学关系。社会物理学有助于我们理解想法是如何通过社会学习机制在人与人之间流动的,以及这种想法的流动最终如何形成公司、城市和社会的规范、生产率和创意产出。”

在社会物理学当道的世界,事后追责型的人类法律将被数理定律所取代,物理性和生物性的安排将取代制度性的安排。脸书创办人马克·扎克伯格敏锐地指出:“基本的数学法则主导着人与人之间的关系,它控制着我们心之所系的盈亏。”大数据正使我们越来越接近于发现这些数学法则,并借此控制人的行为乃至动机。人工智能的进一步发展则可能使人类连编写代码、设计算法的工作都省了,由机器来自我编程,建构“完美可控”的人间秩序。

由此可见,大数据技术的发展正在改变着公共空间与私人空间的社会构型,使原有的公域与私域之分难以为继。保护个人权利免受他人之害的私法和保护个人权利免受公权之害的公法,都需要相应调整自己的应对策略。接下来,本文就以隐私权为例来分析一下公、私界限流变所带来的新的法律问题。这里所谈到的隐私权是广义上的隐私权,包括以人身自由和个人自治为核心的一系列最基础的个人权利。

透明的个人与幽暗的数据掌控者

迄今为止的法律权利都是以每个人的人身为圆心推演开来的。洛克所主张的生命、财产和自由(特指人身自由)三种自然权利是最核心的权利。向外延展至表达自由和参与政治生活的权利,比如言论、出版、集会、结社自由和选举权。20世纪70年代,捷克法学家卡雷尔·瓦萨克提出了“三代人权”的概念。

第一代人权是我们通常所说的公民权利和政治权利,即上述最核心的基本权利,它们基本上成为《公民权利和政治权利国际公约》所覆盖的权利与自由。第二代人权是指经济、社会和文化权利,包括就业权、获得最低生活保障权、获得医疗保障权、受教育权等,这基本上是《经济、社会、文化权利国际公约》所涵盖的权利。第三代人权则是超越个人本位的权利观、旨在促进群体福祉的权利,包括得享宜居环境的权利、分享自然资源的权利、参与文化遗产传承的权利等。在西方社会,这三代权利的出现顺序大体对应于它们的“辈分”。而在我国,改善公民的经济社会境况并保障相关权利是第一步,第一代人权和第三代人权的保障近年来才日益得到重视。

个人的生命、人身自由以及维护这种自由必须的财产权是最基础的人权。我们可以通过下面这个隐喻来理解这些基础权利的功能和价值。每个人都有一个不为外人所知的秘密花园。其中的通幽小径、玲珑宝塔、奇花异草,乃至破铜烂铁、陈年旧账,都是主人的私藏。人的尊严和自主,皆因这个“非请莫入”的领地而得到确认。一旦这个领地被人破门而入,主人的身份就遭到颠覆。但如果进入的人(或物)是被邀请的,被主人自愿带入的,则不会侵犯个人的自主性。安全和便利都是人们愿意放弃这种自主性的原因。

霍布斯极为经典地论述了安全对于政治社会之成立的重要性。如果你的花园的围栏不过是些娇花弱柳,而栏外便是虎狼环伺,这时一个刀枪拱卫、威风八面的强人要征用你的花园,并承诺给你保护,你或许便会就范。这便是霍布斯的隐喻,或称“基于恐惧的自由主义”:你为了自存而自由地选择了服从绝对权威。

这个秘密花园的隐喻,其实在中国宪法中也可以找到印证。宪法第十三条规定公民合法的私有财产不受侵犯;第三十五至第四十条分别规定了公共权力非经法定程序不得加以侵犯的表达自由、宗教信仰自由、人身自由、人格尊严、住宅自主以及通信自由等。这些宪法权利和自由拱卫着中华人民共和国公民的尊严和自主性,使他(她)们成为“国家的主人”(宪法序言)。另一方面,宪法第三条和第四十一条规定了人民直接或间接监督政府的权利。这种监督权当然也蕴涵着知情权。

从宪法的这种结构性安排可以看出:人民有权利保有自己的私人领域(包括个人隐私),而政府则必须暴露在阳光以及人民的目光之下。这在文本上颠覆了中国“封建传统”中的“父母官”概念:人民才是父母,官员应当是接受人民监督和规训的子女。但是,如果认为宪法文本能改变政治现实,就犯了马克思所批评的“头足倒置”的毛病。现实情况并非如此:一方面我国非常强调加强政府信息的保密工作,无限度地扩大保密范围,虽有政府信息公开条例却执行困难;另一方面推行各种实名制,使老百姓的个人秘密无所遁形,将一个个“秘密花园”都纳入政府规划,成为市政广场的建设用地。

实际上,在今天的大数据时代,实名制已经变得没有必要,或者说多此一举。人们每天都在自愿提供着各种信息。在微信朋友圈刷动态、晒娃,在淘宝、京东、亚马逊输入个人信息以便购物,在百度搜索各类关键词以便获得资讯。这些平台背后的“信息帝国”因此掌握着关于我们每一个人的海量信息,它们可以把这些个人信息数据化,用整合了相关算法的软件对之进行分析和处理,从而得出关于每一个人的准确身份资料,包括个人兴趣、消费偏好、健康状况、家庭成员乃至工作单位、身份证号、家庭住址等。

基于这些资料,政府可以实现对特定个人的监控,而商业组织可以投放量身定做的广告,可以引导消费,甚至可以配合执法。比如,为了解决法律文书送达难的问题,浙江省高级人民法院与阿里巴巴合作,传票直接送到淘宝收货地址。

个人信息还可以被用到“预测性分析”之中,从而准确预测个人未来行为。比如,2012年美国多家新闻媒体都报道了一则新闻:一位父亲到连锁零售店Target抱怨,说自己的女儿不断收到孕妇服装和婴儿产品的代金券,而他都不知道自己十几岁的女儿怀孕了。原来,该零售店根据他女儿购买25件商品的记录分析出她即将生产,又根据她的信用卡付款资料和送货地址了解到她的身份信息,并将两者准确匹配。同样,政府也可以利用大数据分析来找出潜在的犯罪分子,并使他们的犯罪计划无法得逞。

正如上述例子所显示的那样,大数据分析所导致的个人透明化既有对社会有利的方面,也有威胁到个人权利的方面。柏拉图在《理想国》第二卷中讲了这样一个故事:一位吕底亚的牧羊人在放羊时碰巧拾到了裘格斯的戒指。在摆弄这枚戒指的过程中,牧羊人发现了这枚戒指使人隐身的魔力。后来,他利用魔戒的法力潜入国王的城堡并弑君篡位。柏拉图利用这个故事来引导对“不道德者难题”的讨论:如果任意妄为可以不受惩罚,为何还要讲究道德操守?匿名行事具有这种“魔戒效应”:对于匿名或用假名乱说乱动者,他人和政府有时很难找出应当承担责任者,并令其对言论或行为的后果负责。

大数据虽然散布在整个网络空间,从理论上讲任何人都可以对这些数据加以分析和利用。但实际上只有政府和大型企业(比如谷歌和百度)才有资源、技术和能力去利用它们。因此导致的结果是下明上暗。政府的透明度是公法所致力于实现的目标之一。只有当政府的运作暴露在公众的目光下时,权力滥用的可能性才能被减小到最低。

但大数据技术的发展将使政府变得越来越不透明,甚至连它不透明这个事实都变得不透明,因为政府赖以作出决策的数据分析越来越超越一般公众的认知能力,以至于有人指出:现在是“算法”统治着世界;受雇于政府和大企业的成千上万的程序员正在编写着各种程序,分析和处理着海量数据,这些复杂的算法正使我们的社会日益成为“黑箱社会”,在这样的社会中,个人越来越透明,控制个人的力量(包括政府和商业机构)变得越来越晦暗。“解构大数据的黑箱殊为不易。即使他们愿意把他们的方法披露给公众,现代互联网和金融行业也为我们理解这些方法安置了巨大的障碍。他们得出的结论——无论涉及雇员工作绩效、网络相关性还是投资回报率——都是基于无数的工程师所设计出的算法,并被无数的律师保护着。”

由于政府和企业都有能力控制大数据并招揽数据分析人才,所以它们都可以成为数据控制者(data controller)。在市场和政府严格分离的地方,个人需要面对商业机构和国家两方面对个人数据的可能滥用。而政府也可以雇用商业机构帮助其进行数据处理,或者直接购买后者的数据处理结果。在政府仍然严格控制着市场的地方,商业机构与政府在利用个人数据方面的相互关系更难以准确判定。商业机构(比如百度和阿里巴巴),是大数据的主要拥有者和实际掌控者。不过,一旦政府要求其配合社会治理、维护国家安全和促进公共利益等方面的工作,这些机构是难以拒绝的。政府作为大数据使用的中立监管者的角色,也会因裁判者和踢球者之间的角色混淆而受到干扰

创新规则与个人权利保护规则之间的平衡

如上所述,大数据科技的兴起产生了进一步的集权效应,使得大数据掌控者得以隐秘地、不受控制地利用个人数据,而普通公民几乎没有力量来抵抗。现有的法律制度不足以保护公民免受数据掌控者的权力滥用之害,因为这种滥权是非人格化的、弥漫性的、以数理定律的方式呈现出来的。反之,如果我们坚持传统的隐私权和其他个人权利保护模式,则意味着宣告大数据技术的终结。因此,如何在鼓励创新与保护权利之间找到平衡,是公共政策和法律界人士应该思考的问题

大数据技术革新首先是一场值得欢迎和追求的革命性变革。实际上,不管欢迎与否,它都正在发生。回避或压制只会导致被动和落后。世界经济论坛已经把个人数据界定为一种新的资产类别,美国和欧盟都出台了一系列政策鼓励相关的技术发展。如何平衡创新规则和权利保护规则是我们应当思考的问题。由于错过了18、19世纪的第一波工业革命浪潮,中国从19世纪40年代开始便陷入被动挨打的局面,并且一度沦为“半封建、半殖民地”社会。

有鉴于这一历史教训,中国政府从上个世纪80年代开始便高度重视信息产业发展,力争赶上最新一波的产业革命,即信息革命。但信息产业与传统的制造业不同,它所生产的是信息、观念、知识和思想。我国执政党的传统是对这一类“产品”进行严格的控制,“竞争性的观念市场”及其自生自发的秩序与党的核心价值和治理理念格格不入。在这种情况下,必定要做出取舍:是继续将党的文宣传统贯彻到信息产业领域,并使中国的互联网永远停留在web1.0时代?还是顺应全球信息产业革命的大潮流,使中国不至于在这一波革命性产业发展之后再次被动落后?

做出上述选择的难度是不言而喻的,因为信息技术发展所导致的交流模式转型必然会引发一场社会变革。当代传播学权威学者曼纽尔·卡斯特尔在《交流权》一书中写道:“权力立基于对交流和信息的控制,不论是国家和传媒企业的宏观权力,还是各类组织的微观权力。”政府的自然倾向无疑是严格控制交流渠道。“堵塞了交流渠道,便堵塞了个人心智关联到公共意识的渠道。”长期生活在这种社会中的人民,除非天赋异禀,一般会变得缺乏公心与公德。不过,交流的形式与实质会随着信息、通讯技术的发展而改变。在历史上的某些关键时刻,会出现治理方式变革与技术革新之间的赛跑。按照历史唯物主义理论所揭示出的规律,不能适应新的生产方式和生产关系的上层建筑必然会被历史所抛弃。

从宪法的角度来看,中国宪法在鼓励创新方面的立场比较接近于美国。美国宪法第一条第八款规定:“为促进科学和实用技艺的进步,对作家和发明家的著作和发明,在一定期限内给予著作权和专利权的保障。”我国宪法序言中提出“四个现代化”的总体目标,第一章总纲中第二十条至第二十四条又明确了国家发展科学、医疗、教育的任务。对言论自由和学术自由的保护是营造创新环境的制度条件,宪法第三十五条对此也有明文规定。可以说,从宪法条文的角度看,我国对大数据技术发展是持鼓励态度的。如何落实宪法所承诺的创新自由是问题的关键所在。

大数据技术创新所带来的个人自治空间缩小是另一个问题。谈到权力对个人隐私的全面侵掠,人们往往会想到乔治·奥威尔的《一九八四》。无所不在的“电屏”使“老大哥在看着你”成为每一位公民的生存处境,个人尊严、独立人格乃至基本的羞耻感都了无存身之地。如果说这种监控技术在奥威尔的时代还只是一种虚构的话,在我们这个“大数据时代”,它却已经成为一种现实。

之所以世界上大多数国家的人民还能享有一定程度的“私人空间”,在很大程度上应当归功于限制权力和技术滥用的法律制度。并非所有技术上可行的事情都符合公共利益,法律应当为权力和科技套上缰绳,以便在世俗化的时代确保基本的文明和伦理秩序。

如果说《一九八四》描绘的是随着苏联的解体而变得越来越不可能的专制主义极端的情境,卡夫卡的《审判》则提供了一幅凡是与官僚系统打过交道的人们都能体会和设想的可能图景。约瑟夫·K先生被逮捕了,却没有被告知原因。他竭尽全力想要知道自己为何被捕,当局掌握了自己的哪些信息,但他最终只能知道存在一套对自己很不利的官方档案,无法得知其内容。腐败、不透明、不用对自己的行为承担责任的官僚系统,是自由和公义的最大敌人。

现代信息技术的发展更是为官与民之间的信息不对称添加了砝码,严重偏向于掌握公权力的一方。利用人体固有的生理或行为特征来进行个人身份识别或认证的技术在近些年突飞猛进,使个人信息的私密性变得越来越脆弱,若无法律制度的保障便会烟消云散。

多数法治社会都制定了规范个人资料之采集、汇总、处理和使用过程的个人资料保护法。比如香港《个人资料(隐私)条例》于1996年生效,同年,个人资料隐私专员公署成立。获取与使用包括姓名、住址、相片、视频、证件号码、信用卡资料等一系列个人资料,均需满足理由正当、用途合理、范围有限、当事人知情并有权查验等法定条件。不论是政府还是私营部门,想在机场、地铁站或其他公共场所安装用于识别个人身份的设备,都必须严格遵守该法例所规定的程序及实体要求。同时,任何个人都可以对已经施行的个人资料采集和处理措施提出异议,借助行政复议或司法审查来保障自己的隐私权。

中国内地虽然尚未制定《个人资料保护法》,但包括宪法、民法和一系列行政法都确立了隐私权受保护、公权力必须依法行使的原则。宪法第三十七条至第四十条,分别保障着公民的人身自由、人格尊严、住宅安全、通信自由与通信秘密,筑起了公民隐私权的围墙;第二、三、二十七条以及第四十一条则分别从基本政治制度和公民权利的角度确立了“透明政府”的原则:政府及其工作人员在人民面前不应有任何秘密,行使公权的一切行为均应接受人民监督。

从世界范围来看,关于大数据时代如何在技术创新与权利保护之间进行取舍、权衡,主要有美国和欧洲两种模式。

欧洲比较重视对个人尊严和隐私权的保护。比如法国有非常严格的隐私权保护法,任何人未经允许在网络上发布他人(包括自己的未成年子女)的照片,都可能面临最高一年的监禁和45000欧元的罚款。但这种做法不仅挑战了家庭伦理,也会严重阻碍大数据技术的发展。欧洲对隐私权的保障渗透到各个领域,从消费者个人数据、信用报告、工作场所隐私、民事诉讼中的证据开示,到网络上裸体图片的传播和犯罪人的公共曝光。即将生效的欧盟《一般个人数据保护条例》把个人数据定义为“关于任何已被识别出(identified)或者可被识别出(identifiable)的自然人的任何信息”。这也是一个十分宽泛的定义,使得个人数据的范围变得非常大。一旦被界定为个人数据,未经同意的使用就会受到严格限制。可以说,个人数据与大数据分析之间的关系是负相关的:前者范围越大,后者的用武之地就越小。

美国模式则试图为技术创新保留足够的空间,继续以传统的侵权—司法救济模式来保护个人权利。大数据对个人自治的威胁最集中地体现在一个领域,这就是“完美个人化”(perfect personalization)。完美个人化所要做到的就是使个人变得越来越“可识别”,这在欧洲显然会遭遇个人数据保护法的严格限制,乃至于不可能发生。但美国却已经在这方面走得很远。

正如美国总统科技顾问委员会(PCAST)在2014年提交的一份报告中指出的那样,“各种类型数据的融合以及实时处理产生出一种力量,在这种力量帮助下,政府和企业可以在个人表达需求、甚至意识到需求前向他们准确提供量身定制的信息、产品和服务……不幸的是,‘完美个人化’也会给定价、服务和机会方面隐秘或者公开的歧视留下空间……随着像数据融合这样的使大数据分析变得越来越有力的技术不断发展,人们目前的隐私预期也受到越来越严峻的挑战”。

这份报告同时提出了一套包含五个环节的应对方案。第一,法律和政策回应不必针对大数据的搜集和分析,而应针对大数据的实际使用,也就是对个人权利产生实际不利影响的具体事件和案件。法律和政策不应指定特定的技术化解决方案,而应当点明具体的政策目标,把解决方案留给技术界去寻找。第二,在发展大数据分析技术的同时,政府和业界应鼓励发展大数据背景下的隐私保护技术,同时开展大数据普及教育,培育大数据时代的隐私权意识。第三,禁止利用大数据分析来进行歧视性的分类和评级。种族、民族、性别等宪法上可疑的分类标准不能被写到“算法”和程序中去。第四,提高大数据分析的透明度,强化大数据使用的问责机制。第五,数据是一种公共资源,应用于公共利益目的,同时应当使越来越多的人有机会分享大数据分析所带来的利益。

欧洲法律在对待大数据技术创新方面的保守立场,已经严重妨碍了欧洲的创新能力和经济发展动力。而美国模式更好地平衡了创新与权利保护这两种重要的价值,对于不能放弃发展的我国更有借鉴意义。

结语

1897年1月8日,时任美国马萨诸塞州最高法院大法官的霍姆斯,在波士顿大学法学院新楼落成典礼上发表了题为“法律之道”的著名演讲,其中说道:“对理性的法律研究来说,在法律的故纸堆里皓首穷经之人(the black-letter man)或许眼下大行其道,运用统计学之人以及经济学的行家里手则引领未来。”霍姆斯的这一预言如今正在变成现实。

法律是一种保守的力量,而法学也是一个保守的学科。无论是作为大陆法系之源泉的罗马法,还是作为英美法系之滥觞的亨利二世时代普通法,都是农业社会的产物。正如霍姆斯在《普通法》中所指出的那样,法律注重形式,而形式本有其功能,但许多法律形式在原初的社会功能消失后仍然被保留下来,成为纯粹的形式;或者被赋予了新的功能,就像旧瓶装新酒。

科技基本改变着人们的认知方式和生活方式,也改变着与这些变化相应的人类预期,从而改变着正当性的来源。法学界对科学进步带来的社会变迁往往反应迟钝,因为法学家比较习惯于形式逻辑思维和道德话语。苏力曾经追问:“法学界、法律界作为一个职业集团,是否会因为自己知识的优势和缺陷(相对擅长道德哲学、政治哲学的术语而缺乏对科技知识甚至科技常识的了解和关心) , 是否会有意无意地为了维护职业利益, 抬高我们所熟悉的那些道德化的概念或将我们所熟悉的国内外某些法律制度和原则永恒化, 而以一种鸵鸟政策对待科学和技术, 对待大量的经验性实证研究? !”

本文是在大数据技术革新的背景下对这一追问的一种回应。我们一方面要承认大数据存储和处理技术方面的革新给人类生活带来了很多便利,并催生着医疗保健、城市治理和犯罪预防等方面的进步性变革,认识到要享受这些便利就需要牺牲一部分个人权利,包括隐私权,另一方面也要直面大数据控制本身带来的新的社会不平等、数据管控者与个人之间的信息不对称和权力不平等、个人权利在大数据时代备受挤压等伦理和法律问题,并尝试在两者之间找到折衷和平衡之道。

许多科技进步,比如优生学,并不是因为其科学性经不住考验,而是因为它们违背了不断进步的人类伦理观念和相应的法律设计(比如不断更新的平等权保护机制),而被社会所放弃。同时,我们也要看到,在全球化的时代,一国促进创新和保护公民权利的法律制度决定着该国在国际竞争中的优劣态势。如果因为过分保护个人权利而导致一国无法在大数据时代赶上最新的科技发展潮流,本国公民的权利最终仍然会被因为创新而力量不断强大的其他国家(包括其企业)所侵凌。谷歌在搜索引擎、大数据处理和人工智能方面的压倒性优势,及其对欧亚各国公民个人数据的实际控制就是一个鲜活的例子。要对大数据所提出的新挑战作出清醒的分析和判断,我们便不能囿于传统的教义化法律思维方式,而更应当依靠社会科学的方法,来重新厘定法律规制的方法、范围和强度。

在致英国政治学家拉斯基的一封信中,霍姆斯写道:“正如你所知道的,我常挂在嘴边的一句话是:如果我的公民同胞想要下地狱,我会协助他们。这是我的职责。”笔者不赞同这样一种态度。科技进步在给人类生活带来很多便利的同时,也带来了新的风险和挑战。法律人的社会功能之一就是站在已有的伦理和法律共识的立场上,清醒地观察和反思这些变化所蕴藏的可能毁灭人类美善生活的因素,并提出保守而平衡的制度对策。毕竟,科技的进步是为了使人的生活变得更加美好,而不是为了让机器终有一天能统治人。

郑戈

郑戈

上海交通大学凯原法学院教授、博士生导师

分享到
来源:微信公众号:探索与争鸣杂志 | 责任编辑:周顺子
专题 > 大数据时代
大数据时代
风闻·24小时最热
网友推荐最新闻
切换网页版
下载观察者App
tocomment gotop