X

ICLR 2020华人雄起!华人参与度近60%,清华南大均斩获满分论文

我们能像研究小白鼠一样研究AI吗?答案是可以的。

DeepMind 和哈佛大学的研究人员构建了一个AI驱动的虚拟大鼠,训练它完成复杂任务,然后用神经科学来解释它的人工“大脑”是如何控制身体运动的。

视频中,研究人员创建了一个栩栩如生的3D小白鼠模型,可以在模拟环境中由神经网络控制。通过神经科学技术分析生物大脑活动,就能够了解神经网络是如何控制老鼠运动的

论文地址:

https://openreview.net/forum?id=SyxrxR4KPS

这是一篇发表在ICLR 2020上的论文,作者在该论文解释了灵活性是如何产生并在大脑中实现的,从而有可能设计出具有类似能力的智能体,并提出了一种更贴近现实的方式来训练,使其与生物数据更具可比性。

今年的ICLR受疫情影响取消了现场会议,但仍然如期在线上进行了虚拟会议。此次虚拟顶会的参会形式有所改变,所有被接受的论文都要预先录制展示视频。

而上面这篇论文,正如所有被接受的ICLR论文一样,通过发视频来展示论文的成果。

2020年4月26日,ICLR准时拉开序幕,众多业界大咖纷纷齐聚线上,开启“云参会”。

图灵奖得主Yann LeCun、Yoshua Bengio,以及Facebook 人工智能研究院(FAIR)首席科学家 Devi Parikh 通过网络,远程带来主题演讲!

本届ICLR 2020共有2594篇投稿,687 篇被接收。其中:

  • 48 篇 oral
  • 108 篇 spotlights
  • 531 篇 poster

录取率为 26.5%,相比去年的 31.4% 略有降低。

华人学者参与论文数占比近60%,优秀华人学生一作入选三篇

在 ICLR 2020 入选论文的 2566 位作者中,华人学者占到将近四分之一,共有 655 位。

其中:有 2 人发表 7 篇论文,1 人发表 6 篇,1 人发表 5 篇,5 人入选 4 篇,17 人入选 3 篇,101 位入选 2 篇论文。

总体来看,此次华人参与的论文数超过半壁江山,共有 412 篇,占总论文数的 60%。

其中华人一作论文共有 301 篇,占华人参与论文数的 73%,占收录论文总数的 44%。

下图为入选 3 篇以上的华人学者。

ICLR 2020 高产之星,两位华人学者有7篇论文入选。

分别是清华大学计算机系朱军教授佐治亚理工学院计算科学与工程系终身副教授宋乐

其中朱军老师,已连续多年在机器学习顶级国际会议和期刊ICML、NIPS、IJCAI、AAAI等发表论文100余篇。

北京大学王立威教授在 ICLR 2020 中共有 6 篇入选。

新加坡国立大学助理教授冯佳时共有 5 篇论文入选。

其中一作华人学生共有 212 人。

瑞士洛桑联邦理工计算机与通信科学学院的三年级博士生 Tao Lin是华人学生中的佼佼者,以一作身份入选三篇。发表 2 篇的共计 8 人。

谷歌表现依旧抢眼:入选80余篇,满分7篇!

今年的ICLR,谷歌又是硕果累累。入选论文达80余篇(12篇Oral),其中华人学者参与就有31篇,占比超过38%。

值得注意的是,谷歌所有入选论文中,我们通过搜索关键词「meta learning」发现,有5篇是专门研究元学习的。

我们知道元学习具备自学能力,也就是学习如何学习,它能够充分利用过去的经验来指导未来的任务,被认为是实现通用人工智能的关键方法。迁移学习、自动机器学习都属于元学习的内容,谷歌一直比较重视自动机器学习,在AutoML领域也处于业内领先地位,前不久开源的AutoML-Zero就能从零开始学习搭建网络结构,选择优化器。

有9篇提到了Generalization或者Generalized。

可以看出谷歌的研究人员非常重视深度学习的泛化能力和通用性,虽然谷歌拥有全球最强大的算力,但是大力也不总是出奇迹,如何减小模型参数量、降低对数据的依赖,也是需要重点关注的领域。

而提到Reinforcement Learning的论文更是多达11篇。

强化学习一直是ICLR投稿的热点,近年来强化学习及深度强化学习不断刷新着人类在游戏、棋牌等领域的最好成绩,新智元关于谷歌研究人员用6小时完成AI芯片设计的报道,也是采用了深度强化学习方法,强化学习的威力不容小觑。

数据来源:

https://ai.googleblog.com/2020/04/google-at-iclr-2020.html

谷歌参与的论文中,有7篇获得满分!

A Generalized Training Approach for Multiagent Learning (oral论文)

作者:Paul Muller、Shayegan Omidshafiei、Mark Rowland 等

机构:谷歌

关键词:多智能体学习、博弈论、训练、游戏

链接

https://openreview.net/pdf?id=Bkl5kxrKDr

GenDICE: Generalized Offline Estimation of Stationary Values

作者:Ruiyi Zhang、Bo Dai、Lihong Li、Dale Schuurmans

机构:杜克大学,谷歌

关键词:强化学习、平稳分布校正估计、Off-policy Policy Evaluation

链接

https://openreview.net/pdf?id=HkxlcnVFwB

Dynamics-Aware Unsupervised Skill Discovery

作者:Archit Sharma、Shixiang Gu、Sergey Levine 等

机构:谷歌

关键词:强化学习、无监督学习、深度学习

链接

https://openreview.net/pdf?id=HJgLZR4KvH

Differentiable Reasoning over a Virtual Knowledge Base(oral论文)

作者:Bhuwan Dhingra、Manzil Zaheer、Vidhisha Balachandran 等

机构:卡内基梅隆大学,谷歌

关键词:QA、深度学习、知识库、信息提取

链接

https://openreview.net/pdf?id=SJxstlHFPH

Mathematical Reasoning in Latent Space

作者:Dennis Lee, Christian Szegedy, Markus Rabe, Sarah Loos, Kshitij Bansal

机构:加州大学伯克利分校,谷歌

关键词:机器学习、形式推理

链接

https://openreview.net/pdf?id=Ske31kBtPr

Meta-Learning with Warped Gradient Descent(oral论文)

作者:Sebastian Flennerhag, Andrei A. Rusu, Razvan Pascanu, Francesco Visin, Hujun Yin, Raia Hadsell

机构:DeepMind,伦敦大学学院,谷歌等

关键词:元学习、迁移学习

链接

https://openreview.net/pdf?id=rkeiQlBFPB

Smooth markets: A basic mechanism for organizing gradient-based learners

作者:David Balduzzi, Wojciech M. Czarnecki, Edward Hughes, Joel Leibo, Ian Gemp, Tom Anthony, Georgios Piliouras, Thore Graepel

机构:Deepmind Google

关键词:博弈论、优化、梯度下降、对抗学习

链接

https://openreview.net/pdf?id=B1xMEerYvB

国人团队成绩斐然,满分论文频现

根据AMiner统计,ICLR2020接收论文华人学者所在单位共有185个,学术界123个,工业界为62个。

此次入选高分论文中,国内企业如华为、字节跳动、腾讯、快手,国内高校如清华大学、南京大学、哈工大、西安电子科技大学等均榜上有名。

我们为大家梳理了国内满分论文,希望未来能够看到越来越多的国人团队拿到满分论文!

华为(oral论文)

Causal Discovery With Reinforcement Learning

作者:Shengyu Zhu, Ignavier Ng, Zhitang Chen

机构:华为,多伦多大学

关键词:因果发现;结构学习;强化学习;有向无环图

链接

https://openreview.net/pdf?id=S1g2skStPB

本文要解决的问题是:在给定了有向无环图(DAG)的邻域聚合(一阶邻接点聚合)函数后,根据观测到的数据集,通过强化学习反向搜索图的原始DAG结构。

字节跳动,南京大学(oral论文)

Mirror-Generative Neural Machine Translation

作者:Zaixiang Zheng、Hao Zhou、Shujian Huang 等

机构:南京大学、字节跳动

关键词:神经机器翻译;生成网络

链接

https://openreview.net/pdf?id=HkxQRTNYPH

本文研究者提出了一个镜像生成式的机器翻译模型(MGNMT),可以更好地利用非平行语料提高NMT的效果。MG-NMT使用生成式的方法,同时优化两个方向的翻译器和语言模型,从而能从两个角度得到提升。实验表明了这种方法的有效性。

清华大学,字节跳动

Sparse Coding with Gated Learned ISTA

作者:Kailun Wu、Yiwen Guo、Ziang Li、Changshui Zhang

机构:清华大学、字节跳动

关键词:稀疏编码;深度学习;收敛性分析

链接

https://openreview.net/pdf?id=BygPO2VKPH

北京大学

A Theory of Usable Information under Computational Constraints

作者:Yilun Xu, Shengjia Zhao, Jiaming Song, Russell Stewart, Stefano Ermon

机构:北京大学、斯坦福大学等

链接

https://openreview.net/pdf?id=r1eBeyHFDH

此外,快手和腾讯合作的论文也被选入了Oral。

快手、腾讯

Watch the Unobserved: A Simple Approach to Parallelizing Monte Carlo Tree Search

作者:Anji Liu, Jianshu Chen, Mingze Yu, Yu Zhai, Xuewen Zhou & Ji Liu

机构:Seattle AI Lab, Kwai Inc., Tencent AI Lab, Bellevue, WA 98004, USA

关键词:MCTS, UCT, RL

链接

https://openreview.net/pdf?id=BJlQtJSKDB

ICLR大会官网:

https://iclr.cc/