被誉为“计算机界诺贝尔奖”的图灵奖在27日公布了获奖人,ACM宣布,深度学习的三位创造者Yoshua Bengio、Yann LeCun以及Geoffrey Hinton获得了2018年的图灵奖,以表彰他们给人工智能带来的重大突破,这些突破使深度神经网络成为计算的关键组成部分。届时,这三位获奖人士将分享100万美元的奖金。
众所周知,在人工智能时代,深度学习是最关键的基础技术之一,在当前的计算机视觉、语音识别、自然语言处理以及机器人等领域,深度学习做出了巨大的贡献。
据悉,这也是图灵奖1966年建立以来少有的一年颁奖给三位获奖者。ACM在公告分别陈述了三位科学奖在深度学习领域做出的突出贡献。
Yann LeCun
Yann LeCun是纽约大学教授、Facebook副总裁兼人工智能首席科学家,他也被誉为“卷积神经网络之父”。
所以Yann LeCun的代表贡献之一是卷积神经网络。1980年代,LeCun发明了机器学习领域的基础技术之卷积神经网络,让深度学习效率更高。Yann LeCun在多伦多大学和贝尔实验室工作期间,首次将卷积神经网络用于手写数字识别。如今,卷积神经网络已经成广泛用于计算机视觉、语音识别、语音合成、图片合成、自然语言处理等学术方向,以及自动驾驶、医学图片识别、语音助手、信息过滤等工业应用方向。
LeCun的第二个重要贡献是改进了反向传播算法。他提出了一个早期的反向传播算法backprop,根据变分原理给出了一个简洁的推导,让反向传播算法更快。
他的第三个贡献则是拓展了神经网络的应用范围,他把神经网络变成了一个可以完成大量不同任务的计算模型。他早期引进的一些工作现在已经成为了人工智能的基础概念,例如在图片识别领域,他研究了如何让神经网络学习层次特征,这一方法现在已经用于很多日常的识别任务。
Yoshua Bengio
目前,Bengio是蒙特利尔大学教授,也是魁北克人工智能研究所Mila的科学主任。
Yoshua Bengio的贡献主要是他在1990年代发明的序列的概率模型,该理论将神经网络和概率模型结合,成功用新技术识别手写的支票,而现代深度学习技术中的语音识别也是在此基础上进行扩展。
此外Bengio发表的论文“A Neural Probabilistic Language Model”,使用了高维词向量来表征自然语言。他的团队还引入了注意力机制,让机器翻译获得技术突破,成为深度学习处理序列的重要技术。
Geoffrey Hinton
Geoffrey Hinton是谷歌副总裁兼工程研究员、Vector研究所首席科学顾问、多伦多大学名誉教授。
他最重要的贡献包括反向传播的论文“Learning Internal Representations by Error Propagation”,论文提到反向传播能让神经网络发现自己内部的数据表征,这样便可以处理以往无法解决的问题。
其次是1983年发明的玻尔兹曼机(Boltzmann Machines),以及2012年对卷积神经网络的改进。Hinton和他的学生Alex Krizhevsky以及Ilya Sutskever 通过Rectified Linear Neurons和 Dropout Regularization改进了卷积神经网络,并在著名的ImageNet评测中取得了很好的成绩,在计算机视觉领域掀起一场革命。