跳转到页脚
首页 作者 Aditya Rawal撰文

Aditya拉瓦尔大声回答

Aditya拉瓦尔大声回答
2博雷竞技到底好不好用客文章 3研雷竞技是骗人的究论文
Aditya Rawal是Uber 雷竞技是骗人的AI实验室的研究科学家。他的兴趣在于两个研究领域的融合——神经进化和深度学习。雷竞技是骗人的他相信,进化搜索可以取代人类的创造力,创造下一代深度网络。此前,Aditya在德克萨斯大学奥斯汀分校获得了计算机科学硕士/博士学位,导师是Risto Miikkulainen教授。在他的博士学位期间,他开发了神经进化算法,以进化序列预测问题的循环架构,并构建了合作、竞争和通信的多智能体系统。

工程博客文章雷竞技到底好不好用

增强的诗人:通过无限发明的学习挑战和他们的解决方案开放的强化学习

增强的诗人:通过无限发明的学习挑战和他们的解决方案开放的强化学习

杰夫·克伦和肯尼斯·斯坦利是这项研究的共同资深作者我们的相关研究论文雷竞技是骗人的

机器学习(ML)的力量许多技术而且服务支持优步平台,我们投资推进基础ML研究并与之接触雷竞技是骗人的...

生成式教学网络:通过学习生成合成训练数据来加速神经结构搜索

生成式教学网络:通过学习生成合成训练数据来加速神经结构搜索

Kenneth O. Stanley和Jeff Clune是本文的共同高级作者其相应的纸

在优步,我们解决的许多难题都可以从机器学习中受益,比如提高安全性,改善贱民,...

雷竞技是骗人的研究论文

超梯度下降一阶预处理

t·莫斯科维茨r .王j .局域网美国卡普尔t . Miconij . Yosinski答:拉瓦尔大声回答
标准的梯度下降方法容易受到阻碍训练的一系列问题的影响,如高相关性和参数空间的不同缩放。这些困难可以通过二阶方法解决,即对梯度应用预条件矩阵来提高收敛性。不幸的是,这类算法通常难以扩展到高维问题,部分原因是计算特定的预处理条件,如反Hessian或Fisher信息矩阵是非常昂贵的。我们引入了一阶预处理(FOP),这是一种快速、可扩展的方法,它概括了以前在超梯度下降方面的工作(Almeida et al., 1998;Maclaurin等,2015;Baydin et al.,2017)学习只使用一阶信息的预处理矩阵。[…][PDF]
神经信息处理系统研讨会(NeurlPS), 2019

增强的诗人:通过无限发明的学习挑战和他们的解决方案开放的强化学习

r .王j·雷曼答:拉瓦尔大声回答j .智y李Clune j .k·斯坦利
创建开放式算法,它会产生自己的永不枯竭的新颖和适当具有挑战性的学习机会流,可以帮助自动化和加速机器学习的进展。这方面的最新进展是成对开放的开拓者(POET),它是一种生成并解决自身挑战的算法,并允许解决方案在挑战之间进行目标切换,以避免局部最优。在这里,我们介绍并实证验证了原始算法的两个新创新,以及两个旨在帮助阐明其全部潜力的外部创新。[…][PDF]
国际机器学习会议(ICML), 2020

背丙胺:训练具有可微神经调节可塑性的自修正神经网络

t . Miconi答:拉瓦尔大声回答Clune j .k·斯坦利
强化学习的一大挑战是智能探索,特别是当奖励稀少或具有欺骗性时。有两款雅达利游戏便是这类硬探索领域的基准:《Montezuma’s Revenge》和《Pitfall》。在这两款游戏中,当前的RL算法表现都很糟糕,即使是那些具有内在动机的算法,这是提高硬探索领域性能的主要方法。为了解决这一不足,我们引入了一种名为Go-Explore的新算法。[…][PDF]
学习表征国际会议(ICLR), 2019年

受欢迎的文章