跳到页脚
首页 作者 Aditya Rawal发表

Aditya拉瓦尔大声回答

2篇雷竞技到底好不好用博客文章 研究雷竞技是骗人的论文3篇
Aditya Rawal是Uber人雷竞技是骗人的工智能实验室的研究科学家。他的兴趣在于两个研究领域的融合——神经进化和深度学习。雷竞技是骗人的他相信,进化搜索可以取代人类创造下一代深度网络的聪明才智。此前,Aditya在德克萨斯大学奥斯汀分校获得计算机科学硕士/博士学位,导师是Risto Miikkulainen教授。在博士期间,他开发了神经进化算法,以进化序列预测问题的循环架构,并构建合作、竞争和通信的多智能体系统。

工程博客文章雷竞技到底好不好用

增强POET:通过无限发明学习挑战及其解决方案的开放式强化学习

增强POET:通过无限发明学习挑战及其解决方案的开放式强化学习

杰夫·克伦和肯尼斯·斯坦利是这项研究的共同资深作者我们的相关研究论文雷竞技是骗人的

机器学习(ML)能力许多技术而且服务我们投资于推进基本的ML研究,并与之互动雷竞技是骗人的...

生成式教学网络:通过学习生成合成训练数据加速神经结构搜索

生成式教学网络:通过学习生成合成训练数据加速神经结构搜索

Kenneth O. Stanley和Jeff Clune是本文的共同高级作者其相应的论文

在Uber,我们解决的许多难题都可以从机器学习中受益,比如提高安全性,改善eta,...

雷竞技是骗人的研究论文

超梯度下降的一阶预处理

t·莫斯科维茨r .王j .局域网美国卡普尔t . Miconij . Yosinski答:拉瓦尔大声回答
标准梯度下降方法容易受到一系列问题的影响,这些问题会阻碍训练,例如高相关性和参数空间中的不同缩放。这些困难可以通过二阶方法解决,即对梯度应用预处理矩阵以提高收敛性。不幸的是,这样的算法通常很难扩展到高维问题,部分原因是特定的预处理条件的计算,如逆Hessian或Fisher信息矩阵是非常昂贵的。我们介绍了一阶预处理(FOP),这是一种快速、可扩展的方法,它概括了以前关于超梯度下降的工作(Almeida等人,1998;Maclaurin等人,2015;Baydin等人,2017)学习一个只使用一阶信息的预处理矩阵。[…][PDF]
神经信息处理系统研讨会(NeurlPS), 2019

增强POET:通过无限发明学习挑战及其解决方案的开放式强化学习

r .王j·雷曼答:拉瓦尔大声回答j .智y李Clune j .k·斯坦利
创建开放式算法,这些算法可以产生自己永无止境的新颖和具有适当挑战性的学习机会,这有助于自动化和加速机器学习的进步。成对开放式开拓者(成对开放式开拓者,POET)是朝着这个方向迈出的最新一步,它是一种生成并解决自身挑战的算法,并允许在挑战之间进行目标切换以避免局部最优。在这里,我们介绍并实证验证了原始算法的两个新创新,以及两个旨在帮助阐明其全部潜力的外部创新。[…][PDF]
机器学习国际研讨会(ICML), 2020

背丙胺:训练具有可微神经调节可塑性的自修正神经网络

t . Miconi答:拉瓦尔大声回答Clune j .k·斯坦利
强化学习的一大挑战是智能探索,特别是当奖励稀少或具有欺骗性时。有两款雅达利游戏可以作为这种艰难探索领域的基准:《Montezuma’s Revenge》和《Pitfall》。在这两款游戏中,当前的RL算法表现很差,即使是那些具有内在动机的算法,这是提高硬探索领域性能的主要方法。为了解决这一不足,我们引入了一种名为Go-Explore的新算法。[…][PDF]
学习表征国际会议(ICLR), 2019年

受欢迎的文章