优步进入Neurips 2019

0.
优步进入Neurips 2019

在优步,我们进行基础研究,推动机器学习的前沿,我们努力将最新的雷竞技是骗人的ML进展减少到实践中,这两方面都使我们能够通过启动世界,更有效地点燃机会。

我们将研究结果发布到更广泛的科雷竞技是骗人的学界。今年,优步是加拿大温哥华的Neurips 2019年会议上的11篇论文!此外,我们还赞助了Neurlps研讨会,包括机器学习领域的女性(wiml),黑色在人工智能,而且近似贝叶斯推理进展研讨会

在本文中,我们分类并简要概述了每篇论文,展示了优步历史概率造型,贝叶斯优化,AI神经科学和神经网络建模的最新工作。

概率造型

粒子Gibbs采样中的参数消除

Anna Wigren(乌普萨拉大学)·Riccardo Sven Risuleo(乌普萨拉大学)·劳伦斯·默里·Fredrik Lindsten (Linköping大学)

arxiv
12月10日下午4:50,西舞厅C,NeurIPS口服
12月10日下午5:30,东展厅B&C,海报#157

概率编程的自动化使我们考虑通过手工困难或易于实现的复杂推理方法。正如自动分化大大简化了优化算法的应用,概率编程中的自动化技术,例如延迟采样,概率算法承诺相同。这项工作看了各种粒子GIBBS样式采样器,用于状态空间模型,并考虑使用延迟采样自动地限制参数时可以获得的可能增益。对于一些特别复杂的方法,例如具有祖先采样的粒子Gibbs,这种边缘化通常在观察的数量中导致二次复杂性,但我们证明使用涉及指数分布的计算可以实现线性复杂性。此外,我们考虑一些阻塞策略来处理弱富有信息的前瞻,并展示了关于生态和流行病学的一些应用的思路。

从顺序蒙特卡罗(SMC)算法中绘制的采样路径的可视化。每个节点代表加权样本,从上一代连接到其父级。在最终一代中存在存活的后代的节点以黑色(其他灰色)显示,并及时播放到共同的祖先血统上。这种效果称为路径退化并影响SMC算法的性能。在最终一代中绘制一个路径,以蓝色显示。

贝叶斯学习的总和网络

Martin Trapp(格拉茨理工大学)·Robert Peharz(剑桥大学)·Hong Ge(剑桥大学)·Franz Pernkopf(奥地利格拉茨信号处理与语音通信实验室Zoubin Ghahramani(Uber和剑桥大学)

arxiv
12月11日上午10:45,东展厅B&C,海报#185

和积网络(spn)是一种灵活的密度估计方法,因其诱人的推理特性而受到人们的广泛关注。虽然SPN中的参数学习已经得到了很好的发展,但是结构学习还有一些不足之处:尽管SPN的结构学习器非常多,但大多数都是临时的,基于直觉而不是明确的学习原则。在这篇文章中,我们介绍了一个很好的原则贝叶斯框架用于SPN结构学习。首先,我们将问题分解为i)布置一个基本的计算图,和ii)学习所谓的范围函数在图上。第一个是相当没有问题的,类似于神经网络体系结构验证。第二个特征是SPN的有效结构,需要尊重SPN中通常的结构约束,即完备性和可分解性。对于广义范围函数的表示和学习是相当复杂的,在本文中,我们针对SPNs的一种重要且广泛应用的特殊情况提出了一种自然参数化方法。这些结构参数被纳入到贝叶斯模型中,这样结构和参数的同时学习就被投入到整体的贝叶斯后验推理中。在各种实验中,我们的贝叶斯自适应神经网络经常比贪婪的自适应神经网络学习者提高测试的可能性。此外,由于贝叶斯框架防止过拟合,我们能够直接根据贝叶斯模型分数评估超参数,而不需要单独的验证集,这在低数据体系中尤其有益。 Bayesian SPNs can be applied to heterogeneous domains and can easily be extended to nonparametric formulations. Moreover, our Bayesian approach is the first which consistently and robustly learns SPN structures under missing data.

贝叶斯结构和参数学习生成模型的计算图包含三种类型的节点:和(S)、乘积(P)和叶(L)。

一百万个数据点都是精确的高斯过程

·Geoff Pleiss(康奈尔大学)·雅各布·加德纳(优步人工智能)·斯蒂芬·泰利(英伟达)·基连·温伯格(康奈尔大学/ ASAPP研究)·安德鲁·戈登·威尔逊(纽约大学)雷竞技是骗人的

相关研究代码雷竞技是骗人的
12月11日下午5点,东展厅B&C,海报#169

在我们的论文中,我们证明了训练精确高斯过程使用迭代方法,如共轭梯度(加德纳等人。,2018)可以扩展到不需要近似推理技术的大规模数据训练。通常情况下,我们假定需要用数千个训练示例来进行近似推理来训练GPs(Hensman et al. 2013)。我们证明,通过利用高效的内核矩阵乘法例程和跨多个gpu的并行性,可以扩展到数百万个训练示例。这使得我们能够首次对精确的GPs与最先进的近似方法进行比较,我们发现精确的GPs表现出了显著的性能改进。这是与康奈尔大学和英伟达的作者共同完成的。

可以使用多个GPU和共轭梯度比标准Cholesky分解在明显较大的数据集上培训精确的GPS。

贝叶斯优化与实验设计

变分贝叶斯优化实验设计

亚当·福斯特(牛津大学马丁·詹坎威济亚克(优步AI)·Eli Bingham.(优步AI)·保罗马(超级人工智能)·Yee Whye Teh(牛津大学,深度)·汤姆·罗弗福(牛津大学)·诺亚古德曼(优步AI /斯坦福大学)

PYRO Bayesian最优实验设计教程arxiv译文
12月10日下午4:40,西舞厅C,Neurips Spotlight Talk.
12月10日晚上5:30,东展厅B&C,海报#173

为了了解世界,我们进行实验;例如,我们开展选举民意调查,分析血液样本或在风隧道中试验飞机翼。这些真实世界的实验很昂贵,并且可以难以设计的实验。贝叶斯最优实验设计是设计信息实验并有效地利用有限的实验资源的原则框架。遗憾的是,它的适用性受到准确估计预期信息增益(EIG)的准确估计,这是用于对不同实验设计的预期疗效进行排名的数字分数。在这项工作中,我们通过从摊销变分推理的思想构建思想来介绍几个类别的快速EIG估计。我们理论上和经验地显示这些估算器可以在以前的方法上以速度和准确性提供显着的提升。我们进一步证明了我们对多个端到端实验的方法的实用性。

当实验设计被明智地选择时,我们对世界的不确定性——用后验熵来衡量——会随着我们进行更多的实验而迅速降低。在这个受行为经济学启发的适应性实验中,我们的变分方法(用蓝色表示)比基线更快地减少了不确定性。

基于局部贝叶斯优化的可扩展全局优化

大卫埃里克森(优步AI)·迈克尔•皮尔斯(Uber AI实习生/华威大学)雅各·加德纳(超级人工智能)瑞安·特纳(超级人工智能)·马蒂亚斯Poloczek(超级人工智能)

arxiv
12月10日下午4:25,西舞厅C,NeurIPS聚光灯下说话
12月10日下午5:30,东展厅B&C,海报#9

贝叶斯优化(BO)是最近出现的一种成功的黑盒函数全局优化技术。流行的应用包括调整机器学习模型的超参数;材料发现过程中反应物和加工条件的调整以及学习机器人控制器。BO通常仅限于少量的可调参数和少量的函数求值。在这项工作中,我们提出了涡轮算法,一种技术,它克服了这些局限,1)定制的当地代理模型,达到适合甚至不同功能及2)一种新颖的方式选择分评价,交易勘探开发对高维函数更好。我们对TuRBO进行了全面的实验评估,结果表明,它在机器学习、运算研究和进化策略方面的性能超过了目前的最先进水平。雷竞技是骗人的TuRBO评估了数以万计的评估,并在强化学习、机器人和自然科学等基准上实现了更好的解决方案。

(左)未知黑盒功能的真实轮廓。(中间左)拟合到观察(黑点)的代理模型的轮廓。当前局部区域显示为红场。全球Optima由绿色星星描绘。(中间右)在执行算法期间,局部区域已经朝向全局最佳升至尺寸减小。最佳区域围绕最佳的区域更密集地采样。(右)Zoom-In的局部区域表明,尽管全球合适差,替代模型几乎完全适合本地潜在的功能。

实用的两步前瞻性贝叶斯优化

吴健(康奈尔大学)·Peter Frazier(康奈尔/乳房)
12月12日上午10点45分,东展厅B&C,海报33号

贝叶斯优化(BO)使用机器学习来优化目标函数,这是耗时的评估,通常用于调整深度神经网络的超参数。BO使用所谓的“获取函数”来决定在哪里评估目标,该函数量化评估显示一个好的解决方案的可能性,以及它对实现总体优化目标的有用程度。从历史上看,大多数获取功能都是短视的:他们认为当前的评估将是最后的,即使它不会在实践中实现。因此,它们的性能可能不如使用更复杂的方法时那么好。最近的一些非短视的BO方法试图通过往前看多步来获得更好的表现。虽然理论上很有希望,但这需要大量的计算,使得这些方法不切实际。这篇文章提供了一种新的方法来展望前面的两步,这是足够快的在实践中使用,提供了什么可以说是第一个非短视贝叶斯优化的实际实现。

所提出的两步贝叶斯优化算法在大型后不确定性的区域下方的样本,因此将获得未来样本的有用信息,而预期的改善过于剥削。

AI神经科学

解构彩票:零、符号和超级面具

海蒂周(优步)·Janice Lan.(优步AI)·Rosanne Liu.(优步AI)·杰森Yosinski(超级人工智能)

雷竞技到底好不好用博客文章arxiv相关研究代码雷竞技是骗人的
12月10日上午10点45分,东展厅B&C,海报#111

现代神经网络可以包含数百万或数十亿个参数,修剪是减少这些网络规模的常用方法。最近的“彩票假说”论文由Frankle&Carbin.展示了一个简单的剪枝程序(将最终值较小的权值设置为零)创建了可以从头开始训练的稀疏网络,但只有在从相同的初始权值开始时才可以。这些彩票(LT)网络的性能往往超过非稀疏基模型,但由于某些原因还没有被很好地理解。在这篇论文中,我们揭示了为什么LT网络能表现得如此出色的一些方面。我们展示了为什么设置权值为零是重要的,如何只需要符号来重新初始化网络训练,以及为什么掩蔽行为像训练。最后,我们发现了超级掩模的存在,这些掩模可以应用于未经训练的、随机初始化的网络,从而产生一个性能远远优于chance的模型(MNIST上为86%,CIFAR-10上为41%)。

使用许多掩模标准(左)可以找到彩票票,其中一些导致超级掩码(右):掩模导致性能优于覆盖未经训练的重量时的性能。

LCA:损耗变化分配,用于神经网络训练

Janice Lan.(优步AI)·Rosanne Liu.(优步AI)·海蒂周(优步)·杰森Yosinski(超级人工智能)

雷竞技到底好不好用博客帖子arxiv相关研究代码雷竞技是骗人的
12月10日下午5:30,东展厅B&C,海报#99

神经网络培训是一个复杂的过程,但我们唯一通常用于监视此过程的唯一方法是单个数字:标量丢失。在本文中,为了更好地了解培训,我们测量模型的每个参数有助于每次迭代的损失的减少(或增加)。我们称之为损失变化分配(LCA),可以描述参数有助于或伤害培训。LCA可以通过神经元,层或时间总结,以揭示更广泛的模式。我们提供了三个洞察力的例子,即LCA可以揭示。首先,培训比至少我们预期的训练吵闹,(例如)resnet-50中只有50.7%的参数有助于降低任何特定迭代的损失。其次,有时整个层总共移动由于动量和层层相互作用,训练梯度。最后,我们直接观察到微量增量在跨层中以同步方式进行学习,多个层学习概念,如彼此完全相同的迭代。

损失变化分配(Loss Change Allocation, LCA)将每次训练迭代中的损失变化分解为每个参数贡献,显示哪些参数有助于网络学习该步骤(绿色),哪些参数影响学习(红色)。

神经网络建模

基于图循环注意网络的有效图生成

Renjie廖(Uber Atg / U.多伦多/矢量)·玉嘉李(深圳市)·杨松(斯坦福)·神龙王(优步ATG / U. Toronto / Vector)·威廉·l·汉密尔顿(McGill / MILA)·戴维·杜维诺(U. Toronto / Vector)·拉奎尔Urtasun·Richard S. Zemel (U. Toronto / Vector)

12月10日上午10时45分,东展厅B&C,海报#124

我们提出了一种新的高效的深度生成图模型,称为图循环注意网络(GRANs)。我们的模型以目前生成的图为条件,每次生成一个节点块和相关边。块大小和采样步幅允许我们在采样质量和效率之间进行权衡。与以前基于递归神经网络(RNN)的图生成模型相比,我们的框架更好地利用图形神经网络(GNNs)注意地捕捉已经生成和将要生成的图部分之间的自回归条件。这不仅减少了对节点排序的依赖,而且还绕过了rnn的顺序特性带来的不必要的远程瓶颈。此外,我们使用混合模型参数化每个节点和边缘块的输出分布,这提供了一种有效的方法来捕获生成的边缘之间的相关性。最后,我们提出了一个解决方案来处理节点排序生成通过边缘化在一个规范排序家族。在标准基准上,我们实现了最先进的时间效率和样本质量与以前的模型相比。此外,我们还展示了我们的模型能够生成多达5000个节点的大型、高质量图形。据我们所知,GRAN是第一个可以扩展到这种规模的深度图生成模型。

图回归注意网络(GRANs)每次自回归生成一块节点和一块边。

注意吸引器网络的增量少镜头学习

Mengye任(Uber ATG / U.多伦多/矢量)·Renjie廖(Uber ATG / U. Toronto / Vector)·Ethan Fetaya (U. Toronto / Vector)·Richard S. Zemel (U. Toronto / Vector)

arxiv相关研究代码雷竞技是骗人的
12月11日下午5点,东展厅B&C,海报#20

机器学习分类器经常被训练来识别一组预定义的类。然而,在许多实际应用中,通常希望能够灵活地学习额外的概念,而不需要对完整的训练集进行再训练。本文解决了这个问题,我们称之为增量少镜头学习,其中一个常规的分类网络已经被训练来识别一组基类,并考虑几个额外的新类,每个类只有几个标记的例子。在学习完小说类之后,我们会对基础类和小说类的整体表现进行评估。为此,我们提出了一个元学习模型——注意吸引子网络,它规范了新课程的学习。在每一集中,我们训练一组新的权值来识别新的类,直到它们收敛,并且我们展示了递归反向传播技术可以通过优化过程反向传播,并促进吸引器网络正则化器的学习。我们证明学习的吸引子网络可以识别新类,同时记住旧类,而不需要回顾原始训练集,优于不依赖迭代优化过程的基线。

注意吸引力网络元 - 了解如何在记住旧课程时如何学习小说课程,而无需查看原始培训集。

哈密​​顿神经网络

Sam Greydanus(谷歌大脑)·Misko Dzamba(Petcube)·杰森Yosinski(超级人工智能)

雷竞技到底好不好用博客文章arxiv相关研究代码雷竞技是骗人的
12月12日在下午5:00,东展厅B&C,海报#67

尽管神经网络享有广泛使用,但他们仍然努力学习物理学的基本定律。我们如何在更好地建模物理系统方面引导它们?在本文中,我们提出了Hamiltonian神经网络,或HNNS,它从汉密尔顿力学汲取灵感,以培训学习和尊重的模型确切的保护法以无人驾驶的方式。我们评估我们的模型,其中节约能量是重要的,类似于引力的双体问题以及前后摆动的摆锤的像素观察。我们的测试显示HNNS火车比常规神经网络更快,更广泛地概括,因为在像能量等量保守的情况下。由于HNNS学习“总能量”的概念,我们还可以轻松模拟直接从系统中添加或删除总能量。

哈密​​顿神经网络学习确切的保护法。因此,随着时间的推移,它们的预测不会像vanilla前馈神经网络中发生一样腐烂或爆炸。

结论

如果您对上述研雷竞技是骗人的究感兴趣,请务必参加我们的讲座,在我们的海报上与我们交谈,或在2019年NeurIPS展会223号展位与我们见面(周日-周三)。有关我们的谈话和海报的更多信息,请查看超级NeurIPS 2019地点。

对优步AI、优步ATG和其他团队正在进行的雷竞技是骗人的ML研究感兴趣吗?看看其他的优步研究出雷竞技是骗人的版物或申请优步的机器学习角色

致谢

作者要感谢David Eriksson,Peter Frazier,Zoubob Gardner,Zoubin Ghahramani,Sam Greydanus,Martin Jankowiak,Lawrence Murray,Renjie Liao,Mengye Ren,Raquel Urtasun,Janice Lan,Hattie Zhou,以及Rosanne Liu提供了短摘要他们的作品。标题图像背景是Flickr用户Armenws的“在黎明时的温哥华城市天际线”。

评论
上一篇文章 RxCentral:优步无缝蓝牙集成的开源库
下一篇文章 用优步食品发现:使用图表学习电力推荐
Matthias Poloczek.
Matthias Poloczek领导优步人工智能的贝叶斯优化团队。他的团队专注于基础研究及其在机器学习和优化交叉领域的应用。雷竞技是骗人的
杰森Yosinski
杰森·约辛斯基(Jason Yosinski)是优步人工智能实验室(Uber AI Labs)的创始成员,并领导着Deep Collective研究小组。雷竞技是骗人的他因在理解神经网络建模、表示和训练方面的贡献而闻名。在加入优步之前,杰森曾在加州理工学院研究机器人技术,与人联合创办了两家网络公司,并在洛杉矶的中学开设了一个机器人项目,目前服务于500多名学生。他在康奈尔创新机器实验室、蒙特利尔大学、喷气推进实验室和谷歌DeepMind完成了博士学位。他是美国国家航空航天局空间技术研究奖学金的获得者,与人合作撰写了50多篇论文和专利,并担任几何雷竞技是骗人的智能公司的ML副总裁,该公司被优步收购。美国国家公共广播电台(NPR)、英国广播公司(BBC)、《连线》杂志(Wired)、《经济学人》(the Economist)、《科学》(Science)和《纽约时报》都对他的研究做过介绍。在他的空闲时间,杰森喜欢烹饪,阅读,滑翔伞和假装自己是一个艺术家。

没有帖子可以显示