跳到页脚
首页 作者 作者:Joel Lehman

乔尔·雷曼

乔尔·雷曼
7篇雷竞技到底好不好用博客文章 11篇雷竞技是骗人的研究论文
Joel Lehman之前是哥本哈根IT大学的助理教授,主要研究神经网络、进化算法和强化学习。雷竞技是骗人的

工程博客文章雷竞技到底好不好用

增强POET:通过无限发明学习挑战及其解决方案的开放式强化学习

0
增强POET:通过无限发明学习挑战及其解决方案的开放式强化学习

杰夫·克伦和肯尼斯·斯坦利是这项研究的共同资深作者我们的相关研究论文雷竞技是骗人的

机器学习(ML)能力许多技术而且服务我们投资于推进基本的ML研究,并与之互动雷竞技是骗人的...

生成式教学网络:通过学习生成合成训练数据加速神经结构搜索

0
生成式教学网络:通过学习生成合成训练数据加速神经结构搜索

Kenneth O. Stanley和Jeff Clune是本文的共同高级作者其相应的论文

在Uber,我们解决的许多难题都可以从机器学习中受益,比如提高安全性,改善eta,...

EvoGrad:一个基于梯度进化的轻量级库

0
EvoGrad:一个基于梯度进化的轻量级库

能够实现快速灵活实验的工具民主化并加速了机器学习研究。雷竞技是骗人的以自动区分库的开发为例,例如Theano咖啡TensorFlow,PyTorch:这些库在...

创建一个雅达利玩代理的动物园来催化对深度强化学习的理解

0
创建一个雅达利玩代理的动物园来催化对深度强化学习的理解

这项研究是雷竞技是骗人的在谷歌Brain和OpenAI的合作者的宝贵帮助下进行的。

雅达利动物园里一群训练有素的特工。

最近人工智能领域一些最令人兴奋的进展来自深度强化领域...

POET:通过成对开放式开拓者无休止地生成日益复杂和多样化的学习环境及其解决方案

0
POET:通过成对开放式开拓者无休止地生成日益复杂和多样化的学习环境及其解决方案

杰夫·克伦和肯尼斯·o·斯坦利文章的第二作者。

我们感兴趣的开放性优步AI实验室,因为它提供了完全独立生成多样化且不断扩展的机器学习课程的潜力。拥有大量的...

蒙特祖玛的复仇被Go-Explore解决了,这是一种解决困难探索问题的新算法(也在陷阱上创下了记录)

0
蒙特祖玛的复仇被Go-Explore解决了,这是一种解决困难探索问题的新算法(也在陷阱上创下了记录)

肯尼斯·o·斯坦利和杰夫·克伦文章的第二作者。

在深度强化学习(RL)中,解决Atari游戏蒙特祖玛的复仇而且陷阱这是一个巨大的挑战。这些游戏代表了一大类具有挑战性的现实问题...

卷积神经网络的一个有趣的失败和CoordConv解

0
卷积神经网络的一个有趣的失败和CoordConv解

优步在许多领域使用卷积神经网络,这些领域可能涉及坐标转换,从设计自动驾驶汽车到自动化街道标志检测,以构建地图,并最大限度地提高优步市场的空间运动效率。

在深度学习中,...

雷竞技是骗人的研究论文

增强POET:通过无限发明学习挑战及其解决方案的开放式强化学习

r .王j·雷曼答:拉瓦尔大声回答j .智y李Clune j .k·斯坦利
创建开放式算法,这些算法可以产生自己永无止境的新颖和具有适当挑战性的学习机会,这有助于自动化和加速机器学习的进步。成对开放式开拓者(成对开放式开拓者,POET)是朝着这个方向迈出的最新一步,它是一种生成并解决自身挑战的算法,并允许在挑战之间进行目标切换以避免局部最优。在这里,我们介绍并实证验证了原始算法的两个新创新,以及两个旨在帮助阐明其全部潜力的外部创新。[…][PDF]
机器学习国际研讨会(ICML), 2020

可进化性ES:可进化性的可伸缩和直接优化

答:GajewskiClune j .k.o.斯坦利j·雷曼
设计能够揭示高度进化表象的进化算法是一个开放的挑战;这种可进化性很重要,因为它加速了进化,使人们能够快速适应不断变化的环境。本文介绍了evolvability ES,这是一种进化算法,旨在明确有效地优化可进化性,即进一步适应的能力。[…][PDF]
遗传与进化计算会议(GECCO), 2019

成对开放式开拓者(POET):无休止地生成日益复杂和多样化的学习环境及其解决方案

r .王j·雷曼Clune j .k·斯坦利
到目前为止,机器学习的历史包含了一系列由研究人员和算法提出的问题,这些算法学习了它们的解决方案,但一个重要的问题是,这些问题本身是否可以在被解决的同时由算法产生。雷竞技是骗人的[…][PDF]
2019

去探索:解决难探索问题的新方法

答:Ecoffetj .惠钦格j·雷曼k·斯坦利Clune j .
强化学习的一大挑战是智能探索,特别是当奖励稀少或具有欺骗性时。有两款雅达利游戏可以作为这种艰难探索领域的基准:《Montezuma’s Revenge》和《Pitfall》。在这两款游戏中,当前的RL算法表现很差,即使是那些具有内在动机的算法,这是提高硬探索领域性能的主要方法。[…][PDF]
2019

一个用于分析、可视化和比较深度强化学习代理的Atari模型动物园

f .这样诉Madhavanr·刘r .王,卡斯特罗,y李,舒伯特,贝勒马雷,Clune j .j·雷曼
许多人力和计算工作旨在提高深度强化学习算法在雅达利学习环境等基准上的表现。相对较少的努力集中在理解通过这种方法学习了什么,以及调查和比较不同家族的强化学习(RL)算法学习的表示。[…][PDF]
2018

卷积神经网络的一个有趣的失败和CoordConv解

r·刘j·雷曼p . MolinoF.i这样e·弗兰克答:能够j . Yosinski
很少有思想能像卷积那样对深度学习产生如此大的影响。对于任何涉及像素或空间表示的问题,常见的直觉认为卷积神经网络可能是合适的。在这篇论文中,我们通过看似平凡的坐标变换问题展示了一个惊人的反例,它只需要学习(x,y)笛卡尔空间和单热像素空间中的坐标之间的映射。[…][PDF]
神经信息处理系统研究进展(NeurIPS), 2018年

数字进化的惊人创造力:来自进化计算和人工生命研究社区的轶事集合雷竞技是骗人的

j·雷曼Clune j ., d . Misevic阿达米c . l . Altenberg j .比尤利·本特利s伯纳德·g·贝丝纶,d·布赖森p . Chrabaszcz n .切尼答:呆子,s . Doncieux f·代尔,k . Ellefsen r . Feldt费舍尔,福勒斯特,a . Frenoy c .赢l·高夫l·格拉博夫斯基b . Hodjat f . Hutter l·凯勒c . Knibbe p . Krcah r . Lenski h·利普森,r·麦c . Maestre r . Miikkulainen s .米特里·d·莫里亚蒂,j·穆雷打造,阮,c . Ofria m . Parizeau d·帕森斯r . Pennock w, t·雷·m·Schoenauer e . Shultek·西姆斯k·斯坦利、F.塔代伊、D.塔拉波尔、S.蒂博、W.韦默、R.沃森、j . Yosinski
生物进化为复杂而微妙的适应提供了创造性的源泉,经常让发现它们的科学家感到惊讶。然而,因为进化是一种算法过程,超越了它发生的基底,进化的创造力并不局限于自然界。[…][PDF]
2018

改进进化策略的探索,通过寻求新奇的代理群体进行深度强化学习

e .孔蒂诉Madhavanf .这样j·雷曼k·斯坦利Clune j .
进化策略(ES)是一组黑盒优化算法,能够像q学习和策略梯度方法一样训练深度神经网络,解决深度强化学习(RL)问题,但速度更快(例如,小时vs天),因为它们的并行性更好。[…][PDF]
守夜@神经ips 2017(NeurIPS), 2017年

通过输出梯度的深度和循环神经网络的安全突变

j·雷曼j·陈Clune j .k·斯坦利
虽然神经进化(进化神经网络)在从强化学习到人工生命的各个领域都有成功的记录,但它很少应用于大型深度神经网络。一个核心原因是,虽然随机突变通常在低维度下有效,但数千或数百万个权重的随机扰动很可能会破坏现有的功能,即使一些个体权重的变化是有益的,也不会提供学习信号。[…][PDF]
遗传与进化计算会议(GECCO), 2018年

深度神经进化:遗传算法是训练用于强化学习的深度神经网络的竞争性替代方案

f .这样诉MadhavanE.孔蒂,j·雷曼k·斯坦利Clune j .
深度人工神经网络(dnn)通常通过基于梯度的学习算法进行训练,即反向传播。进化策略(ES)在具有挑战性的深度强化学习(RL)问题上可以与基于反支持的算法(如Q-learning和策略梯度)竞争。[…][PDF]
深度RL @ NeurIPS 2018

ES不仅仅是一个传统的有限差分逼近器

j·雷曼j·陈杰夫Clune肯尼思·o·斯坦利
一种基于自然进化策略简化的进化策略(ES)变体最近引起了人们的关注,因为它在挑战深度强化学习领域表现得出奇地好。它通过对当前参数集产生扰动来搜索神经网络参数,检查它们的性能,并朝着更高奖励的总方向移动。[…][PDF]
遗传与进化计算会议(GECCO), 2018年

受欢迎的文章