马克·麦卡锡:机器学习算法中的政治
来源:观察者网
2018-05-20 08:56
公元前1200年左右,殷商时期的中国就发展出了工厂制,铸造出成千上万尊大型青铜器皿供日常生活和典礼仪式使用。在这个关于大规模生产的古代案例中,需要事先制定精细的计划,对大批工人进行分组协调,确保每组工人按部就班地逐项执行任务,才能铸造出青铜器。
一千年以后,中国迎来了首位皇帝秦始皇,他著名的兵马俑军队也是通过同样复杂的流程制造出来的。旧金山亚洲艺术博物馆的资料显示,兵马俑雕像是“通过一套装配生产体系塑造烧制而成,这一体系为后世的大规模商业生产铺平了道路。”
有学者推测,这些早期的规范性操作技术对塑造中国社会发挥了重要作用,例如使人们更容易接受官僚机构及其背后那套强调等级的社会哲学,接受“只有一种正确的行事方式”的观念。
19世纪,当工业厂房最初出现在欧洲时,即使连恩格斯等资本主义的严厉批评者也承认,无论采用资本主义还是社会主义经济体系,大规模生产都会使中央集权成为必需。在20世纪,兰登·温纳(Langdon Winner)等理论家将这一思路扩展到其他技术领域。例如,他认为原子弹应被视为一种“具有内生政治属性的人工制品”,因为其“高度致命性决定了它应该由集权式、严格层级化的指挥链来控制”。
今天,我们可以把这个思路再往前推进一步。机器学习算法(machine-learning algorithms)已成为当今最重要的通用技术,这些算法利用真实世界中的范例来模拟人类认知能力,已经在现实工作场所中广为应用。然而,为了充分利用这些技术,发挥算法的优势,各类组织必须将人工任务重新定义为预测任务(prediction task)。
机器学习算法的关键特征之一是,其性能会随着数据量增加而提高。因此,应用算法本身就会产生一种技术动力:将人的各类信息视为可记录、可访问的数据。就像大规模生产体系一样,这些数据也“具有内生政治属性”,因为其核心功能倾向于肯定某些社会实践,否定另一些行为,尤其与人类个体维护隐私的意愿直接冲突。
在美国社会学家阿米塔伊·埃茨昂尼(Amitai Etzioni)等社群主义者的眼里,建立在社群成员信息公开化基础之上的体系似乎是经得起检视的。对他们而言,对隐私的种种限制只是执行社会规范的一种手段。但计算机算法与社群主义者不同,它不关心社会规范,只关心如何通过将人类生活转化为可供开采的数据集,并基于此更准确地做预测。
科技势在必行的力量在不经意间把信奉个人主义的西方人转变为社群主义者,使他们更仰赖于以算法评估为基础的贤能主义体制。无论是在工作、学习,还是约会类应用程序中,我们都已经习惯于使用不具人格的工具来评估人们的资格,并为我们在层级结构中分配位置。
可以肯定的是,算法评估不是什么新鲜的概念。一代人以前,奥斯卡·甘迪(Oscar H. Gandy)等学者就曾告诫人们:社会正在转向“得分+排名”模式,我们需要建立责任和补偿机制来弥补由技术造成的错误。与今天的机器学习算法不同,当时的评估工具比较容易理解,它们是根据相关规范性和经验性因素来做决策的,例如,拖欠信用卡账单导致债台高筑会损害一个人的信用度——这不是什么秘密。
与此相对,新的机器学习技术则致力于深度挖掘大型数据集,以期发现人们可预测但无法完全理解的某些相关性。在工作场所,算法能够监测员工的对话,了解他们在哪吃午饭,在电脑前、电话上和会议中分别花了多少时间,再通过这些数据搭建出复杂的生产效率模型,远超人类基于常识的直觉。在基于算法的贤能主义体制中,模型得出的结论就是我们追求卓越的新标准。
这并不等于技术宿命论。我们要赶在技术塑造人类之前塑造技术。商业领袖和政策制定者可以根据自身机构的需求,有选择性地开发和部署他们想要的技术。我们有能力在人类生活的敏感领域布置隐私防护网,防止数据被用来制造伤害,并要求算法设计要在预测准确性与公平性、责任制和透明度之间取得平衡。
如果我们遵循算法的自然逻辑,文化将无可避免地朝贤能主义和社群主义的方向发展。这种平稳的转型将对西方的民主制度和政治结构产生深远的影响。正如研究中国的学者贝淡宁和张维为所指出的那样,中国不断发展的社群主义体制为西方自由主义民主传统提供了主要的替代性政治选择。
中国体制允许公民参与地方选举,而国家领导人则通过贤能政治程序来选拔。领导人被认为是人民福祉的监护者。自由民主国家不太可能完全采取这样的政治体制。但如果商业和消费文化按目前的趋势发展下去,西方可能越来越多地转向中国式的贤能主义和社群主义传统,逐渐远离个人主义和自由民主的历史传统。而如果要避免这一转向,我们必须把政治置于技术之上。
(观察者网黄郁译自《世界报业辛迪加》)
本文系观察者网独家稿件,文章内容纯属作者个人观点,不代表平台观点,未经授权,不得转载,否则将追究法律责任。关注观察者网微信guanchacn,每日阅读趣味文章。