GPT-3获NeurIPS 2020最佳论文奖,苹果华人学者获经典论文奖

华人学者连续两年获经典论文奖

晓查 发自 凹非寺
量子位 报道 | 公众号 QbitAI

NeurIPS 2020今天正式召开,今年共有1900篇论文被接收,创下历史新高。

今天早晨,大会评委会公布了获得最高荣誉的论文名单:

包括GPT-3在内的三篇获得最佳论文奖,一篇2011年论文获得时间检验奖。而去年新增的杰出新方向论文奖并未颁出。

由于受到新冠疫情影响,原计划在温哥华举办的NeurIPS不得不改为在线上举办。

GPT-3获NeurIPS最佳论文奖,华人学者获经典论文奖

最佳论文奖

No-Regret Learning Dynamics for Extensive-Form Correlated Equilibrium

这篇论文来自米兰理工大学和卡内基梅隆大学,研究方向为学习理论。

GPT-3获NeurIPS最佳论文奖,华人学者获经典论文奖

论文地址:
https://arxiv.org/abs/2004.00603

获奖理由:

相关均衡(CE)易于计算,并且可以获得比众所周知的纳什均衡要高得多的社会福利。在普通形式的游戏中,CE的一个令人惊讶的特征是,可以通过简单且分散的算法最小化后悔的特定概念(即所谓内部后悔)。

本文证明了在大型游戏(即泛型或树型游戏)中收敛到CE的后悔最小化算法的存在性。

该结果解决了博弈论、计算机科学和经济学之间一个长期存在的开放性问题,并且可能对涉及中间人的游戏产生重大影响,例如,通过导航应用程序对有效的交通路线产生影响。

Improved Guarantees and a Multiple-Descent Curve for Column Subset Selection and the Nyström Method

这篇论文来自加州大学伯克利分校,也是一篇关于学习理论的论文。

GPT-3获NeurIPS最佳论文奖,华人学者获经典论文奖

论文地址:
https://arxiv.org/abs/2002.09073

获奖理由:

从一个大矩阵中选择一个小的但有代表性的列向量子集是一个困难的组合问题,并且已知一种基于基数约束的行列式点过程的方法可以提供一种实用的近似解决方案。

本文推导了近似解的近似因子在最佳可能低秩近似上的新上界和下界,该上下界甚至可以获得关于子集大小的多重下降行为。本文进一步将分析扩展到获得Nyström方法的保证。

由于这些近似技术在机器学习中得到了广泛的应用,本文有望产生实质性的影响,并给出新的见解,例如核方法、特征选择和神经网络的双下降行为等。

Language Models are Few-Shot Learners

这篇论文可能是今年最知名、最出圈的论文,来自OpenAI的研究,也就是鼎鼎大名的GPT-3,作者数量达到31人之多!

GPT-3获NeurIPS最佳论文奖,华人学者获经典论文奖

论文地址:
https://arxiv.org/abs/2005.14165

获奖理由:

语言模型是解决自然语言处理中一系列问题的现代技术支柱。本文表明,当这样的语言模型被扩大到前所未有的参数数量时,其本身可以作为少量样本学习者,无需任何额外的训练,就可以在许多此类问题上取得非常有竞争力的表现。

这是一个非常令人惊讶的结果,预计将在该领域产生重大影响,并有可能经受住时间的考验。

除了这项工作的科学贡献之外,本文还对这项工作的广泛影响进行了非常广泛和深入的阐述,这可以作为NeurIPS社区如何思考对现实世界影响的一个例子。

时间检验奖

NeurIPS每年都会从大约十年前的大会上选取一篇论文,授予时间检验奖(Test of Time Award,也称经典论文奖),以表彰这篇论文对AI学界产生的持久而深远的影响。

今年共选取了12篇候选者,最终获奖的是在NeurIPS 2011年发表的论文:

HOGWILD!: A Lock-Free Approach to Parallelizing Stochastic Gradient Descent

这篇论文主要提出了一种异步SGD算法,让处理器平等地访问共享内存,并且能够随意更新内存的各个部分,从而实现了几乎线性的加速。

GPT-3获NeurIPS最佳论文奖,华人学者获经典论文奖

现在该论文的引用次数已经达到了1918次。

论文地址:
https://arxiv.org/abs/1106.5730

获奖理由:

本文首次展示了如何在没有任何锁定机制的情况下,并行化普遍使用的随机梯度下降(SGD)算法,同时实现强大的性能保证。

当时,一些研究人员提出了并行化SGD的方法,但是它们都需要不同工作进程之间的内存锁定和同步。本文针对稀疏问题提出了一种简单的策略,称为Hogwild!:让每个工作进程在不同的数据子集上并行运行SGD,并在托管模型参数的共享内存中执行完全异步更新。

通过理论和实验,他们证明了Hogwild!在满足适当稀疏性条件的数据上,随着处理器数量实现了近乎线性的加速。

该论文的第一作者是当时还在威斯康星大学麦迪逊分校就读博士的华人学者Feng Niu,他也是清华大学计算机系2008年本科毕业生。

GPT-3获NeurIPS最佳论文奖,华人学者获经典论文奖

Feng Niu博士毕业后没有进入学界,而是在谷歌工作了一年,之后和他的导师Christopher Ré(也是论文作者之一)等人共同创立AI公司Lattice Data。该公司2017年被苹果以2亿美元收购。

GPT-3获NeurIPS最佳论文奖,华人学者获经典论文奖

值得一提的是,去年的时间检验奖也颁给了华人学者,获奖的是来自微软研究院高级首席研究员Lin Xiao。

关于NeurIPS 2020

今年NeurIPS共收到9454篇论文投稿,1900篇被接收,论文接收率仅为20.09%。

虽然今年接收率比过去几年都低,但论文的绝对数量却增长了33%。这主要是由于今年论文投稿数量大增,去年总投稿数仅6743。

在今年投稿的机构学校中,谷歌以169篇入选位居第一,清华大学和北京大学分别有63篇、37篇被接收。

其中有两位清华校友杨林汪昭然分别入选9篇,是今年华人学者之最。

官方博客:
https://neuripsconf.medium.com/announcing-the-neurips-2020-award-recipients-73e4d3101537

版权所有,未经授权不得以任何形式转载及使用,违者必究。