熊节:拿起手机时,我们该如何与算法抗争?

来源:观察者网

2024-12-31 08:58

熊节

熊节作者

华东师范大学国际传播研究院全球南方研究中心主任

编者按:近年来,网络平台算法逐渐从幕后走到台前,走进公众的视野。“信息茧房”从传播学的专业术语,变成人人有所耳闻的概念;“打榜”“买热搜”不再限于饭圈,背后的相关产业也不再是秘密;越来越多的人意识到自己被大数据“杀熟”,外卖平台通过算法压榨骑手的现象也通过爆款文章传遍全网,引发热议,甚至改编进影视剧。

11月12日,中央网信办、工业和信息化部、公安部、国家市场监督管理总局等四部门联合印发了《关于开展“清朗·网络平台算法典型问题治理”专项行动的通知》,以治理网络平台算法典型问题为主要任务,旨在整治信息茧房、操纵榜单、压榨骑手、大数据杀熟等存在已久、关注度较高的典型问题。

观察者网对话华东师范大学国际传播研究院全球南方研究中心主任熊节,他以通俗易懂的方式介绍与我们日常生活息息相关的算法机制,提出对相关问题治理的看法。

【文/观察者网 刘冶】

观察者网:从用户视角来看,平台的各种算法都是“黑箱”,用户只能看到算法最终呈现的结果,而无法知道算法具体的运作机制;就算知道了,也会因为技术复杂而难以理解。能否简单介绍一下常见的一些平台算法?

熊节:可以举两个最常见的例子来说明。

第一个是内容推荐算法。这类算法应用非常广泛,从我们打开每个APP的开屏广告,到APP推荐给我们的每条内容,都是推荐算法计算的结果。推荐算法的运作机制其实也并不复杂,甚至可以说很简单。其实就是商家(也就是平台)尽可能掌握用户尽可能多的信息,掌握的信息越充分越全面,就可以给用户推荐尽可能准确的信息。这和自古以来做生意的逻辑其实也是一样的。

推荐算法跟自古以来的每个老板最大的不同,就是它掌握的关于用户的信息是极其大量的。一般来说平台会给用户贴上几千个甚至几万个这样数量级的标签,比如可以具体到你是否喜欢周杰伦、你是否喜欢五月天、你是否庆祝圣诞节、你以前圣诞节是吃饭还是看电影……这么细节的信息都可以逐个贴上标签。

而且各个平台关于用户的信息也是互相流通的,通过被称为客户数据平台(CDP)的大数据系统,各个平台都可以很有效地了解用户的信息。

这种所有平台对用户的全方位的了解,就会造成所谓“信息茧房”的问题。比如说,每个平台都知道我喜欢《黑神话:悟空》这个游戏,然后每个平台都想争夺我的浏览量,于是都给我推荐黑猴相关的文章和视频。这就会给我造成一种印象,让我感觉好像所有人都在耍猴、都在讨论黑猴。这就是一种推荐算法造成的偏见。其实全国买了黑猴的也就2000万人,在整个人口里只是一个很小的比例。

如果这种偏见发生在一些社会和政治问题上,就有可能使一些错误的、偏执的想法在一个信息茧房里被不断强化和放大,严重的情况下有可能造成社会的分裂。

另一个例子是外卖骑手的派单算法。最近的电影《逆行人生》对这个问题有很好的展示。算法可以给骑手分配高效的路线,这本来是件好事。但平台同时又把骑手配送的实际数据输入回去,根据实际数据不断调高对骑手的要求,强迫骑手要跑得越来越快才能保持收入水平。这就形成了对骑手的压榨,而且也造成了骑手和顾客之间的紧张关系。

《逆行人生》截图

这两个例子其实是有一定的共通性的。在这两个例子中,算法都可以优化某些计算结果(给用户推荐什么内容、给哪个骑手派哪一单)。但是“优化”首先就要回答一个问题:什么是“优”。这个目的问题不是算法本身能回答的,而是使用算法的平台赋予它的。如果平台的唯一目的是挣钱、提高利润率,那么信息茧房、压榨骑手等情况毫无疑问就会成为达成挣钱这一目的不可避免的代价。

从这个意义来说,用户看不懂算法运作的内部机制,只能看到算法运作的结果,其实并不是一个大问题,因为大众真正需要关心的就是结果。如果算法造成的结果对社会不利,它内部是怎么运作的并不重要,总之就是需要整改。

观察者网:平台一般需要从用户那里收集哪些信息和数据?算法又是如何诱导用户提供这些信息的?

熊节:根据国家网信办2019年的《APP违法违规收集使用个人信息行为认定方法》,手机APP必须清晰列出收集了哪些个人信息。比如在豆瓣APP的“设置->已收集个人信息”菜单下就可以看到,豆瓣APP收集了账户信息、用户身份证明信息、生物识别信息、社交与内容信息、用户使用过程信息、设备信息这6大类的信息。

感兴趣的用户可以自行查看每个APP收集了自己哪些信息。如果哪个APP没有类似的功能,用户应该是可以向国家网信办举报的。

按照《个人信息保护法》的定义,个人信息是与已识别或者可识别的自然人有关的各种信息,其中有些信息本身指向个人或者直接关联到个人,如姓名、身份证、指纹、面部信息、数字ID等(称为识别符),其余的信息本身不具有识别个人身份的属性,但通过结合分析或关联分析也可以使信息或数据集指向某特定自然人。

一般来说,APP在法律许可的前提下,都是能收集的信息尽量收集。我觉得很难说是“算法诱导用户提供这些信息”,基本上应当假设在使用APP的过程中所有的信息(甚至包括在某个页面停留了多久这么细节的信息)都会被收集。

观察者网:尽管平台在获取用户信息时,都有用户须知之类的提示条款。但对于用户来说,这些条款过于冗长和专业,很多时候并不能辨别出其中的陷阱。再加上平台的强制性,如果不同意就无法使用平台功能,用户只能被动接受。这种情况下,用户如何维护自己的信息安全权益?

熊节:我认为靠EULA(最终用户许可协议)维权这种做法,本身就是美国垄断企业创造出来的一种单边霸权。第一,有几个用户会看这些条款,又有几个用户能看懂里面的弯弯绕,很少。第二,更关键的是,我看懂了,我觉得有问题,然后我又能干啥?我朋友全都在用微信,领导天天用微信安排工作,我能说我觉得微信的个人信息保护条款有问题所以我不用微信吗?

所以EULA这个东西需要有,但它的意义是明确相关法律法规的落地。也就是说《个人信息保护法》、《网络安全法》等等法律法规在EULA里都有所体现了,然后APP的行为又是按照EULA来执行的,这是一条法律意义上的链条。但用户真正要维护信息安全权益,还是应该回到可观察的外在行为这个层面上来。

比如说我是淘宝的用户,我怀疑淘宝是不是在用大数据杀我的熟,我用另一个手机号注册一个新用户,发现同样的东西确实给到新用户的价格比给到我这个88VIP的价格还低,那我就可以向网信部门举报淘宝APP大数据杀熟。至于说它这个价格歧视是不是符合EULA的规定,这个根本就不重要。

观察者网:提升算法的透明度,对于解决因为算法造成的信息茧房、大数据杀熟等问题,有多大作用?

熊节:坦率地说,我觉得作用可能有限。

第一,所谓提升算法透明度,其实还是个专业性很强的概念。比如说在训练人工智能的时候,如果用回归算法就比较容易追溯回去知道是哪些因素对结果影响的权重比较高,如果用卷积神经网络算法就比较难追溯。但是这个“透明度”还是只有很少数的专业人士能看得懂,普通用户、律师、学者、政策制定者等等是不太可能看得懂的。

第二,算法审计本身就是一个很大的工作,需要平台配合,进行专门的技术性测试。例如平台给搭一个测试环境,准备一套测试数据,然后审计人员在其中去观察效果。并不是平台提升了算法透明度然后就谁都可以来验证一下的。

国外有一些社会组织,尝试独立于政府和平台来做第三方的算法审计。比如美国有一个NGO叫“不结盟技术运动”(Non-Aligned Technologies Movement,简称NATM)提出了一个叫“算法观察站”(Algorithm Observatory)的概念,通过独立测试来剖析和发现科技巨头使用的算法中存在的危害。

还有个叫“数据与社会”(Data & Society)的NGO去年启动了一个“算法影响方法实验室”(Algorithmic Impact Methods Lab,或简称AIMLab),目标是开发必要的审计方法,以评估日益普及的自动决策系统如何影响人们的生活和整个社会。

现实是这些尝试都搞得不咋好,没搞出什么成果。因为没有企业配合的情况下,想独立搞算法审计是很困难的。比如我举个最简单的例子,所有人都知道Facebook有shadowban的算法,会对支持巴勒斯坦的内容限流,但是到现在也没人能拿出特别实在的证据说明shadowban的逻辑到底是怎么样的,因为独立的算法审计就是很困难。而企业在没有政府压力的情况下,是不会有动力配合第三方算法审计的。

当然我国在这方面比美国有制度优势,也许未来国家可以给平台企业施加压力,令其接受第三方算法审计和监管。在这种情况下,算法透明度就会很有意义了。在此之前,解决算法带来的问题,主要还是从外部可观察的行为入手,对企业提出要求,然后企业自己整改。提升算法透明度对于企业整改相关问题也会有帮助,不过那就是企业内部的事了。

观察者网:用户可以通过哪些方式意识到自己被算法“算计”了?为减少“大数据杀熟”“信息茧房”困扰,一些年轻人正试图反向驯化算法。这种反向驯化是否有可能打破算法规律?

熊节:如果你发现你成天看见的内容,都是你已经在关注、已经在感兴趣的问题(不管是支持还是反对你的观点),那就说明你很有可能正在被套进信息茧房。

从推荐算法实现的技术来看,我觉得“反向驯化”(我的理解是,比如说,故意点一些以前不会看的内容,故意赞一些自己反对的观点,之类的)可能效果不见得很好,因为推荐算法掌握的是关于你的几千个标签。你通过反向驯化改变其中几个标签的值,我猜可能对推荐算法的影响不太大。当然我没有亲测过,希望看到其他人分享亲测的经验。

我个人亲测有效的实践就是把个性化推荐关掉,索性不要平台给我个性化推荐。之前我在观察者网有篇文章也讲过这个问题。从2022年《互联网信息服务算法推荐管理规定》实施以来,所有APP都必须提供关闭算法推荐服务的选项。自从我把知乎和B站的算法推荐服务选项关闭以后,很明显我看到的世界就变得更丰富多样了。当然也会看到更多跟我观点不一样的、有时候是让我生气的内容,我就会告诉自己,这就是跳出信息茧房的标志。

但是豆瓣这个平台很有意思,我关闭了算法推荐服务选项它还是照旧一直给我推性别对立的内容,也可能这不是它的个性化推荐,而是这个平台整体的推荐吧。

观察者网:近期中央网信办等四部门联合印发了《关于开展“清朗·网络平台算法典型问题治理”专项行动的通知》。类似专项行动一般采取企业先自查自纠,再由有关部门核验企业自查情况的方式进行整治。这样的方式能否有效地改善算法典型问题?如何避免企业阳奉阴违、有关部门睁一只眼闭一只眼等情况,导致专项行动无法落到实处?为了真正将整治落到实处,在技术层面上可以采取哪些手段?

熊节:我还是这个观点:针对算法的治理,最终要用效果来说话。比如说压榨骑手的问题,它本质上是一个新技术环境下新形态就业劳动者权益保障的问题。也就是说,虽然就业的形态不同、劳动的方式不同,但是我们都要认同,外卖骑手跟建筑工人一样,都是社会主义中国的劳动者,他们都应该享受同等规格的劳动者权益,比如说要有适当的劳逸结合、要有社保和医保、工作时间内受了工伤要有医疗覆盖,等等。

那么最终问责到平台的就是这些问题:骑手每天工作几个小时?工作期间是否有必要的休息?劳动强度是否过大?身体和心理健康是否有系统性的隐患?配送期间出了车祸怎么办?等等等等。平台要自己去改善算法回应这些问题。

如果这些问题回应不好,平台说自己算法已经治理好了,那是没有用的,也没人会接受这个托词。所以技术层面上的手段应该主要是企业内部考虑的,企业之外大家还是应该主要关注最终表现出来的效果。这也是一种对算法祛魅的方式:算法只是一个工具,不能拿工具来作为企业责任缺失的借口。

信息茧房的问题,相对就更复杂一些,因为它还涉及到一个新闻传播的问题。我曾经跟央视频APP的杨继红主任聊出过一个想法,说早晚咱们得让推荐算法来推荐爱国主义的、社会主义的内容,要让推荐算法成为中国特色新闻学的一个前沿阵地。

这次三中全会提到要推进主流媒体系统性变革,我认为可能不仅是主流媒体本身需要系统性变革、需要用技术赋能,可能还应该把眼界放开,考虑所有的APP,所有的推荐算法,其实都是意识形态战场的一部分,都需要系统性变革。比如说知乎每天让我看什么问题,B站每天给我看什么视频,这怎么不是意识形态主战场呢?

所以一方面我们要防范信息茧房,另一方面也要考虑如何用好推荐算法,使其在潜移默化中做到“以科学的理论武装人,以正确的舆论引导人,以高尚的精神塑造人,以优秀的作品鼓舞人”。这里面需要的考量可能就更复杂,是一个跨部门的大工程,特别是需要马克思主义新闻观在里面提供指导。

本文系观察者网独家稿件,文章内容纯属作者个人观点,不代表平台观点,未经授权,不得转载,否则将追究法律责任。关注观察者网微信guanchacn,每日阅读趣味文章。

责任编辑:刘冶
观察者APP,更好阅读体验

马上走人了,还要对中国无人机动手

促消费为什么没有起色?这与搞创新不矛盾

中国首次实现!“领先马斯克的星链”

15死!新年首日,“恐袭”疑云笼罩美国

这一领域,普京指示要确保同中国合作