班鲍尔和里希:相比于人类决策,消费者更信任算法决策?

来源:观察者网

2021-12-07 08:34

德里克·班鲍尔

德里克·班鲍尔作者

美国亚利桑那大学法学教授

迈克尔·里希

迈克尔·里希作者

美国维拉诺瓦大学法学院副院长、教授

【导读】 消费者在评估是选择算法还是选择人类决策者时是比较务实的。最重要的是,他们是有价格意识的,这表明日常生活中的选择背后都是由实用主义动机在推动。

【文/德里克·班鲍尔和迈克尔·里希 译/观察者网 刘思雨】

想象一下,你正在申请银行贷款以购买一辆新车,并且你非常需要它。在你提供信息后,银行给你一个选择:你的申请可以转给贷款部门的员工进行评估,也可以由计算机算法来确定你的信用度。选择权在你手中。你是选择一号门(人类雇员)还是二号门(软件算法)?

传统看法是,你一定是疯了才会选择背后是算法的二号门。大多数评论家对算法的看法是既恐惧又厌恶。他们认为,数字计算代码提供的是不准确的判断,使我们和我们的孩子沉迷于社交媒体网站,审查我们的政治观点,并且传播关于新冠病毒疫苗和治疗的错误信息。

观察家们提出了一系列建议以限制算法在我们生活中的运用,从透明度要求到内容审核的限制,再到增加平台使用搜索引擎来突出某些信息的法律责任。其基本假设是,汹涌的民意要求将算法推到台下,以古老的人类决策的方式取代它们。

然而,批评者和改革者们,基本上没人提出过这个重要的问题:人们对算法决策影响日常生活这一问题究竟抱有什么态度?在即将发表在《亚利桑那州立法律杂志》(Arizona State Law Journal)上的一篇论文中,我们就提出了这个问题。

我们调查了人们对人类决策和算法决策的偏好,涵盖了琐碎的小事(赢得一家咖啡店的小礼品券)到重大事项(决定被调查者是否违反了交通法规并应支付高额罚款)——结果是令人惊讶的。调研结果表明,在关于何时以及如何监管算法的辩论中,需要进行更加细致的鉴别;还表明,条件反射性地拒绝算法决策是不可取的。

没有人想要有偏见的算法,比如那些增加医疗服务中种族差异的算法。在某些情况下,比如在刑事审判和判刑的时候,应该由人类来进行决策以符合重要的价值观,比如公平和程序正当等。但人类决策者也经常有偏见,他们的决策也不透明、不公平。为使用算法设置系统性障碍,很可能使人们的处境变得更糟。

在东京的一个IT贸易展上,屏幕上展示了人工智能正在实时检测每个人的特征以得出解决方案。(Yasushi Wada / The Yomiuri Shimbun via Reuters Connect)


结果显示,人们选择算法的频率远远高于人们在学术界和媒体评论中所得到的心理预期。当被问及日常场景时,人们大多相当理性——他们在人类法官和算法之间做选择的依据是哪个成本更低、错误更少、决定更快。

调查显示,消费者仍然符合人类的特征:当风险增加时,我们更倾向于有一个人类参与其中,而且我们更愿意坚持最初给我们的某个选项。对调查数据的分析还提出了一些有用的政策干预措施,如果政策制定者确实要监管代码的话,可以披露算法最重要的特点,建立现实的比较基准,并谨慎设置默认值。

在人类和算法之间做出选择

我们的研究涵盖了约4000名对在线调查做出回应的人。每个受访者都被随机分配到四个场景中的一个,在这些场景中,人类或算法对不同利害关系做出决策:赢得一张咖啡店的礼品卡;获得一笔银行贷款;接受一项可行性高的治疗方法的临床试验;以及在民事交通法庭上面临一笔巨额罚款。然后,该调查随机选择人类或算法作为初始(默认)决策者。随后,调查向受访者提供了关于每种决策者的成本、速度、准确性和所使用的信息(仅公开,或公开加上私人信息,如信用报告)的信息。

最后,调查问受访者,他们是否想继续使用最初分配给他们的决定者(人类或算法),或者是否要换一个。这种设计使我们能够评估这些因素中的每一个是如何影响参与者对人类和算法的选择的,以及它们之间是如何相互影响的。结果是明确而有力的——每一个发现都具有强烈的统计学意义,只有下面描述的这两个结果是例外。

在一些常见的决策情况下,人们更喜欢由算法而不是人类来进行决策,但他们是否喜欢算法是由算法的运作方式决定的。总的来说,接受调查者有一半以上的场合(52.2%)选择算法来决定一个问题,这表明对算法的道德恐慌被夸大了。这种偏好与主导媒体报道的算法怀疑论形成了鲜明的对比。

其次,消费者对算法的感受在很大程度上取决于成本、速度和准确性等实际因素,但不受隐私问题(例如对敏感数据的访问)的影响。基于这些数据,我们认为对算法在决策系统中可允许作用的政策选择,必须仔细考虑这些消费者偏好。如果不这样做,就将破坏法律改革的合法性,并阻碍其实施。

在人们的选择中,隐私并不是一个有意义的因素。在决策者可以访问他们私人信息的情况下,参与者对其是人类还是算法漠不关心。我们怀疑人们在将私人信息纳入决策时有不同的偏好。例如,有些人可能更喜欢算法,因为代码不会做评价——它使用非情感的逻辑处理信息,而不是道德化的逻辑。但这可能也是其他人更喜欢透露敏感信息的原因,他们可以将公开信息置于更广泛的背景下,并且能够以同理心进行分析。不过,总体而言,隐私问题并未造成任何方向的偏好。

消费者偏好

在选择算法还是人类的问题上,什么最重要?简而言之:价格(相对成本和收益)、准确性、风险、速度和默认设置。我们的研究设计使我们能够梳理不同的变量,看看哪些变量对人们最重要。

结果表明,参与者不是反对算法,而是以在很大程度上遵循经典理性行为模型的方式对不同条件做出反应。人们更喜欢以更便宜、更准确、更快速的方式做出决定的选项。随着所涉及的风险增加,参与者倾向于以更高的速度选择人类。

我们的调查数据还显示出很强的锚定效应(译者注:锚定效应指受事物的第一印象影响,以后会产生先入为主的观念)。受访者倾向于选择程序最初分配给他们的决策者类型,尤其是如果它是算法。

价格对消费者来说真的很重要。当该算法提供更低的成本或更大的收益时,61%的受访者选择了它;而当它提供的效果与人类相等时,这一比例仅为43%。价格的影响超过了准确性(错误率)和速度的影响。

例如,考虑在风险算法(具有高错误率的算法)和准确度未知的人类之间进行选择,其中两个选项的价格相等。在这种情况下,接受调查的人只有26%的时间选择了不稳定的算法。然而,一旦该算法提供了有意义的价格优势,其接受率就上升了一半以上,达到42%。参与者愿意为了更大的价格回报而赌博。

同样,如果人类和算法都提供相同的速度和好处,那么受访者只有38%的时间选择了算法。如果算法更快,则该份额将增加到47%。但是,如果该算法在相同的时间内提供了更好的价格,那么参与者的选择率为57%。

利害关系对消费者也很重要。调查场景询问参与者关于权重大小的决定:一端是利益牵涉较少,比如赢得一张小额货币价值(10-20美元)的咖啡店礼品卡,另一端是利益关系大,比如因交通罚单被罚款数百美元。结果跟踪了有关消费者偏好的标准直觉——利害关系越大,受访者就越有可能希望有人参与其中。即便如此,这种效果也是有限的。对于交通罚单场景,56%的人选择了人类;对于礼品卡,56.4%选择了算法。[1]在利害关系范围的两端,也有相当多人选择那个少数选项。

准确性也影响了人与算法之间的选择。当一个选项的错误率高而另一个选项的错误率低时,74%的受访者选择了准确度更高的选项。当人类和算法具有相同的准确性时,参与者基本上会分散他们的选票。在没有关于任一选项准确性的信息的情况下,人们有65%的时间选择了人类决策者,这可能反映了关于算法风险程度的基线假设。

速度也影响了这个决定。更快的算法导致57%的受访者选择了它,但当人类决策速度同样快时,选择算法的人下降到48%。并且在四种场景中,当两个决策者的速度相等时,受访者选择算法的意愿都下降了。

最后,默认值很重要。最初被分配给算法决策者的人有62%的时间选择了该选项,而最初被分配给人类的人中有58%的情况下也是如此。有趣的是,算法和人类默认值之间的差异在统计上是显著的:算法具有更大的持久力。当两个选项之间的准确性存在差异时,锚定的减少最大。

这些结果表明,消费者在评估是选择算法还是选择人类决策者时是比较务实的。最重要的是,他们是有价格意识的,这表明日常生活中的选择背后都是由实用主义动机在推动。

政策建议

这些有关消费者喜好的数据在帮助人们或算法做出决策方面有着重要的政策意义。

第一,从原则性和重要性的角度来讲,这些喜好是很重要的,必须予以考虑。

原则性的角度是指,民主国家的运作是基于这样一个假设,即人民是自己利益的最佳评判者。但这种假设也会有错的时候,特别是当一个人的决定伤害到了其他人的时候,例如企业运用算法来歧视边缘化的社区和个人。

然而,我们的研究所涉及到的利益权衡,只会影响那些在人与算法之间做出选择的人。如果人们给出更低的价格,使得算法的准确性也因此降低,那么社会是否应该凌驾于这种偏好之上,尤其是那些不是很重要的决策,还不清楚。

考虑现有偏好的重要原因是,如果拟议中的改革与民众的态度背道而驰,改革就会更加艰难。即使群众的意见被误导了,他们也是一个重要的指引,可以告诉我们哪种政策是可行的,以及要付出什么代价。

第二,调查结果对于提高算法透明度非常有用。

参与者的选择告诉了我们,哪些信息对消费者的决定有着最重要的影响。改革的重点应该是让银行等实体披露算法提供了哪些好处,以及代价是什么,而不是算法是如何运作的,因为这些信息对普通人来说难以理解。也许,最重要的是,透明度也是相对的。人类的法官也可能是不透明的、有偏见的、武断的。算法的底线应该是人类提供的现实世界的替代方案,而不是中立、客观而又活生生的理想仲裁者。

第三,(初始)默认设置很重要,但不是绝对的。

我们的研究表明,初次分配的锚定效应是真实而显著的。路径依赖可能是算法治理的结果,因此在第一个实例中仔细设置策略非常重要。研究结果还显示了如何突破默认设置的惯性:在有意义的选择的背景下,为人们提供相关的、准确的信息。这可以与系统设计相结合,最大限度地减少默认设置的影响,如强迫选择,它既没有现实,也没有初始设置的外观。

第四,调查参与者本能地抓住了算法争论中的一个关键点:利害关系和背景问题。

这项研究测试了相对日常的决定。不过,即使在有限的场景中,情况也是大不一样的。比如在交通罚款的场景中,由于涉及到数百美元的罚款,会比争夺咖啡店礼品卡这种场景更容易让人担心算法所产生的偏见和漏洞。

这对争论双方都有影响。算法的倡导者和设计者应该把注意力更多集中在利益攸关的情况下,在这个框架内,他们应该特别注意消费者偏好的结果,如默认设置的权力大小。如果批评家们把注意力集中在算法的更重要的方面,例如刑事缓刑、保释和判刑,那么他们的案例会更有效。简而言之,对于算法的运用需要更细致的讨论,通过关注潜在决策中的风险来不断改进算法。

最后,消费者在选择人工和算法时对某些形式的风险很敏感——特别是,他们担心决策者会犯错误(错误率)或他们会遭受更严重的后果(基于场景的风险)。这些实证结果支持基于风险的算法治理方法,特别是如果风险分析还包含了抵消的好处的话,欧盟和一些国会议员,还有拜登政府已经开始考虑将其投入应用了。

回到正题:对于大多数人来说,在算法和人类决策者之间做出选择并非“淑女还是老虎”的难题(译者注:指无法解决的难题)。相反,它涉及到实用性和功利性的问题,这些都可能受到如默认设置下的系统设计的重要影响。当算法做出决策时,更应该关注的是消费者想要什么,以及为什么,才能带来更好的算法和更佳的治理。

德里克·班鲍尔(Derek E. Bambauer)是亚利桑那大学的法学教授,教授互联网法和知识产权。

迈克尔·里希(Michael Risch)是维拉诺瓦大学查尔斯·韦杰法学院的副院长和法学教授,也是该校知识产权政策委员会的成员。

(本文发表于2021年11月10日美国布鲁金斯学会网站,译者刘思雨)

本文系观察者网独家稿件,文章内容纯属作者个人观点,不代表平台观点,未经授权,不得转载,否则将追究法律责任。关注观察者网微信guanchacn,每日阅读趣味文章。

责任编辑:谌海滨
智能化 人工智能
观察者APP,更好阅读体验

伊朗外长否认以空袭:除非遭重大袭击,否则不予回应

重庆通报“燃气费异常”:燃气集团党委书记被免职

“伊以都在降调”,国对国直接打击结束?

以色列“有限复仇”:选在了伊朗核计划中心

以色列“报复”开始:伊朗多地传出爆炸声