AI大热,图灵奖花落深度学习“三剑客”

来源:观察者网

2019-03-28 13:58

【导读】 深度学习的三位推动者尤舒亚·本吉奥(Yoshua Bengio)、杰弗里·辛顿(Geoffrey Hinton),和雅恩·乐昆(Yann LeCun)因其在神经网络方面的成就赢得了2018年的图灵奖(A.M. Turing Award)。

美国东部时间3月27日,美国计算机协会(ACM)宣布,深度学习的三位推动者尤舒亚·本吉奥(Yoshua Bengio)、杰弗里·辛顿(Geoffrey Hinton),和雅恩·乐昆(Yann LeCun)因其在神经网络方面的成就赢得了2018年的图灵奖(A.M. Turing Award)。此次,是自2002年和2007年之后,第三次图灵奖同时颁给了3名科学家。

雅恩·乐昆曾为多伦多大学杰弗里·辛顿实验室的博士后研究员,雅恩·乐昆在AT&T贝尔实验室工作时又与尤舒亚·本吉奥成为同事,据《纽约时报》报道,2004年在加拿大政府的支持下,杰弗里·辛顿组建研究项目,邀请雅恩·乐昆和尤舒亚·本吉奥加入了他的项目组。杰弗里·辛顿曾表示,他们几乎每周都要见一面,而聚会常以吵架结束。在过去数十年间,上述三人既独立研究又相互合作,共同奠定了深度神经网络领域的基础概念。他们克服了计算力和数据量的限制,突破性地研究了反向传播(Backpropagation)、卷积神经网络(CNN)和生成对抗式神经网络(GAN)等。

Yoshua Bengio 是蒙特利尔大学教授、魁北克人工智能机构 Mila 的科学主管。他曾与其他专家合著《深度学习》(Deep Learning),这是一本被业内誉为“圣经”的书。他的论文在2018年平均每天被引用131次。

在1990年代发明的序列的概率模型,该理论将神经网络和概率模型结合,成功用新技术识别手写的支票,而现代深度学习技术中的语音识别也是在此基础上进行扩展。

此外Bengio发表的论文“A Neural Probabilistic Language Model”,使用了高维词向量来表征自然语言。他的团队还引入了注意力机制,让机器翻译获得技术突破,成为深度学习处理序列的重要技术。

Geoffrey Hinton 是谷歌副总裁、工程研究员,也是 Vector Institute 的首席科学顾问、多伦多大学 Emeritus 荣誉教授。

他最重要的贡献包括反向传播的论文“Learning Internal Representations by Error Propagation”,论文提到反向传播能让神经网络发现自己内部的数据表征,这样便可以处理以往无法解决的问题。

其次是1983年发明的玻尔兹曼机(Boltzmann Machines),以及2012年对卷积神经网络的改进。Hinton和他的学生Alex Krizhevsky以及Ilya Sutskever 通过Rectified Linear Neurons和 Dropout Regularization改进了卷积神经网络,并在著名的ImageNet评测中取得了很好的成绩,在计算机视觉领域掀起一场革命。

Yann LeCun 是纽约大学教授、Facebook 副总裁和首席 AI 科学家。他也被誉为“卷积神经网络之父”。

1980年代,LeCun发明了机器学习领域的基础技术之卷积神经网络,让深度学习效率更高。Yann LeCun在多伦多大学和贝尔实验室工作期间,首次将卷积神经网络用于手写数字识别。如今,卷积神经网络已经成广泛用于计算机视觉、语音识别、语音合成、图片合成、自然语言处理等学术方向,以及自动驾驶、医学图片识别、语音助手、信息过滤等工业应用方向。

LeCun的第二个重要贡献是改进了反向传播算法。他提出了一个早期的反向传播算法backprop,根据变分原理给出了一个简洁的推导,让反向传播算法更快。

他的第三个贡献则是拓展了神经网络的应用范围,他把神经网络变成了一个可以完成大量不同任务的计算模型。他早期引进的一些工作现在已经成为了人工智能的基础概念,例如在图片识别领域,他研究了如何让神经网络学习层次特征,这一方法现在已经用于很多日常的识别任务。

责任编辑:张建鑫
图灵
观察者APP,更好阅读体验

美方对俄隐瞒了部分信息?克宫回应

这条中马“一带一路”重点铁路项目 “或延伸至泰国”

国防部表态:中方不会在南海问题上任菲胡来

关于ASML出口管制,荷兰首相在华表态

警惕!“隐秘”的调查暗藏国家安全风险