观察者网

谷歌CEO:制造一个种族主义、性别歧视的AI非常容易

2019-05-08 11:48:30

【文 观察者网/赵挪亚】

过去一年时间里,AI(人工智能)的伦理问题成为了各个互联网企业和各国政府讨论焦点之一,前有谷歌先后成立、取消AI道德委员会,后有欧盟公布AI道德准则,这一新兴技术在社会应用上的伦理规范尚需讨论。

不过,尽管谷歌一再强调AI的道德问题,但旗下的YouTube却曾在“巴黎圣母院大火”时,因AI算法引起争议,而他们设立的AI道德委员会也只持续了两周不到即告解散。

在5月8日凌晨举行的2019谷歌I/O开发者大会上,美国搜索引擎巨头陆续公布了新版的视觉化搜索系统、谷歌智能助手以及安卓系统,AI成为了贯穿整场大会的主题,而作为这一技术使用的前提,谷歌CEO桑达尔·皮查伊(Sundar Pichai)称他们正在努力解决人工智能的偏见问题。

谷歌I/O大会

在会上,皮查伊称凭借现有的机器学习和算法,要制造一个种族主义、性别歧视的AI非常容易。他表示,现有的AI机器学习本质上依靠的还是大量数据的输入,因此这些数据的公正性,将很大程度上左右AI在种族和性别问题上是否具有偏见。

皮查伊以谷歌旗下的AI算法举例:“如果你想用该技术来建立一个可以识别医生形象的AI模型,但却一直给它输入‘穿白大褂、带听诊器’的男性照片,那么最终这一AI将很可能认定,男性是识别医生照片的重要元素。”

而在另一个例子中,皮查伊也提到,AI算法可以用在鉴别皮肤癌的领域。但如果在训练阶段,研究人员一直给其输入同种肤色的皮肤癌照片,却遗漏了其他肤色,那么最终这一AI也将在诊断时出现误判。

皮查伊表示:“仅仅知道AI模型有效是不够的,我们必须知道它如何运作。早在机器学习出现之前,偏见就一直是科学界关注的问题。(在这个问题上)AI的风险显然更高。”

为此,谷歌提出了两个解决方案。其中之一,就是一种被称为TCAV(使用概念激活向量进行测试)的技术,它可以确定机器学习系统在做决定时,相关概念和数据在机器学习系统中的权重有多少,从而更好理解AI算法的逻辑。其次,皮查伊还提出,将会把部分开放数据分享给其他公司和AI技术人员,以此帮助更多人。

在最后总结阶段,谷歌举了一些例子说明了AI给社会带来的各种进步。比如,借助AI来算出患者的患病趋势,降低患者的死亡率;用AI预测洪水,龙卷风等灾害性天气。

尽管如此,谷歌的AI技术还是为他们引来了不少争议。

据《今日俄罗斯》4月16日报道,在“巴黎圣母院”大火期间,YouTube平台上部分新闻直播下方的信息栏(Info Box)内,出现了有关“911恐怖袭击”事件的说明,此事也引来了众多网友的批评,认为YouTube此举可能助长“阴谋论”的出现。

据截图显示,在France 24的直播视频下方,出现了“911恐袭”的说明

对此,谷歌发言人解释:“我们对巴黎圣母院的大火感到十分难过,但这些信息栏都由算法自动生成,有时候系统会出错。我们已经关闭了这些直播视频下方的信息栏。”

今年3月26日,谷歌宣布成立人工智能道德委员会,即先进技术外部咨询委员会,希望通过哲学家、工程师和政策专家组成的团队帮助解决人工智能带来的道德风险。

而到了4月4日,由于谷歌内部员工不满委员会成员凯·詹姆斯(Kay James)和戴安·吉本斯(Dyan Gibbens)的政治倾向,再加上耐基梅隆大学学者亚历山德罗•阿奎斯蒂(Alessandro Acquisti)教授的批评,谷歌宣布取消人工智能道德委员会。

除了谷歌以外,欧盟也于4月8日公布了人工智能道德准则,并要求“值得信赖”的AI应当满足包括“人类监督”、“技术安全”、“多样性和公平性”以及“透明性”在内的7个条件。

欧盟的AI道德准则

不过有部分研究者怀疑,欧盟制定的人工智能道德准则,将会影响到这一产业的未来发展。

智库机构数据创新中心(Center for Data Innovation)的高级政策分析师艾琳·奇沃特(Eline Chivot)4月8日在接受The Verge采访时说:“欧盟希望通过制定道德标准,来确定自身在全球AI发展中的地位,我们对这种方法持怀疑态度。要成为AI伦理的领导者,首先你必须在AI领域遥遥领先。”

本文系观察者网独家稿件,未经授权,不得转载。

赵挪亚

赵挪亚

分享到
来源:观察者网 | 责任编辑:赵挪亚
专题 > 大公司
大公司
小编最近文章
谷歌CEO:制造一个种族主义、性别歧视的AI非常容易
缅甸特赦两名路透社记者:为了国家长期利益
谷歌母公司一日跌去4500亿元,2012年以来最惨
韩国瑜喊话蔡正元:若道歉还是朋友
特朗普夫妇独霸红毯 日本网友炸了
风闻·24小时最热
网友推荐最新闻
相关推荐
切换网页版
下载观察者App
tocomment gotop