跳到页脚
作者 Jeff Clune的帖子

杰夫Clune

杰夫Clune
12个雷竞技到底好不好用博客文章 24研雷竞技是骗人的究论文
Jeff Clune是Wyoming大学计算机科学中的前大Loy和伊甸园议员副教授,高级研究经理和Uber Ai Labs的高级研究经理,目前在Openai的研究团队领导者。雷竞技是骗人的杰夫通过深入学习和深度加固学习侧重于机器人和培训神经网络。他还利用演化的计算模型研雷竞技是骗人的究了进化生物学的开放性问题,包括研究模块化,等级和再生性的进化起源。在成为一名教授之前,他是康奈尔大学的研究科学家,在密歇根州立大学获得了计算机科学雷竞技是骗人的的博士学位,并在密歇根州立大学获得了哲学的哲学,并在密歇根大学获得了哲学的巴。有关Jeff的研究可以在JeffCl雷竞技是骗人的une.com找到更多关于Jeff的研究

工程博客文章雷竞技到底好不好用

光纤:AI的分布式计算简单

光纤:AI的分布式计算变得简单

项目主页:GitHub.

在过去的几年里,增加加工能力计算机器的发展导致了机器学习的进步。越来越多的算法利用并行性,依赖分布式训练来处理大量的数据......

增强的诗人:通过无限的发明来学习挑战和解决方案的开放式加强学习

0.
增强的诗人:通过无限的发明来学习挑战和解决方案的开放式加强学习

Jeff Clune和Kenneth Stanley在这项工作中是联合高级作者我们的相关研究论文雷竞技是骗人的

机器学习(ml)力量许多技术服务这是UntPin的平台,我们投资于推进基本的ML研究和与之参与雷竞技是骗人的......

生成式教学网络:通过学习生成综合训练数据来加速神经体系结构搜索

0.
生成式教学网络:通过学习生成综合训练数据来加速神经体系结构搜索

Kenneth O. Stanley和Jeff Clune担任本文的共同高级作者其相应的纸

在优步,我们致力于解决的许多难题都能从机器学习中受益,比如提高安全性,改善eta,......

介绍Evograd:基于梯度的演化的轻量级库

0.
介绍Evograd:基于梯度的演化的轻量级库

工具,实现快速灵活的实验民主化和加速机器学习研究。雷竞技是骗人的例如,用于自动差异化的图书馆的开发,例如Theano咖啡纹orflow.,Pytorch.这些图书馆在这方面起了很大作用......

第一次Uber科学研讨会:讨论下一代的RL、NLP、ConvAI和DL

0.
第一次Uber科学研讨会:讨论下一代的RL、NLP、ConvAI和DL

在Uber,数百个数据科学家,经济学家,AI研究人员和工程师,产品分析师,行为科学家和其他从业者利用科学方雷竞技是骗人的法来解决我们平台上的挑战。从建模与实验到数据分析,算法开发和基础研究,雷竞技是骗人的......

创造大量雅达利游戏代理来促进对深度强化学习的理解

0.
创造大量雅达利游戏代理来促进对深度强化学习的理解

这项研究得雷竞技是骗人的到了谷歌Brain和OpenAI合作伙伴的宝贵帮助。

一群训练有素的特工聚集在雅达利动物园里。

AI最近的一些最令人兴奋的进步来自于深度加固领域......

诗人:不断产生越来越复杂和多样化的学习环境和他们的解决方案通过配对的开放式开拓者

0.
诗人:不断产生越来越复杂和多样化的学习环境和他们的解决方案通过配对的开放式开拓者

杰夫·克伦和肯尼斯·o·斯坦利文章的第二作者。

我们感兴趣开放式结束在优步人工智能实验室(Uber AI Labs),因为它提供了一种完全靠自己创造多样化、不断扩大的机器学习课程的潜力。有大量......

Go-Explore解决了Montezuma的复仇,Go-Explore是一种新的算法,用于解决困难的探索问题(在Pitfall上也有记录)

0.
Go-Explore解决了Montezuma的复仇,Go-Explore是一种新的算法,用于解决困难的探索问题(在Pitfall上也有记录)

Kenneth O. Stanley和Jeff Clune是文章的第二作者。

在深增强学习(RL)中,解决Atari Games蒙特祖玛的复仇陷阱一直是一个大挑战。这些游戏代表着广泛的挑战性,现实世界问题......

加速深神经发展:在单个个人电脑上用几个小时列车Atari

0.
加速深神经发展:在单个个人电脑上用几个小时列车Atari

我们最近出版的一篇文章在深神经发展中宣布五篇论文包括发现遗传算法可以解决深增强学习问题以及流行的替代品,如深Q学习和政策梯度。这项工作遵循......

可微可塑性:学习学习的新方法

0.
可微可塑性:学习学习的新方法

神经网络,其中许多超级机器学习系统,在解决复杂问题方面,包括图像识别,语言理解和游戏。但是,这些网络通常培训到停止点梯度下降法,这......

vine:神经系的开源交互式数据可视化工具

0.
vine:神经系的开源交互式数据可视化工具

在优步的规模下,机器学习方面的进步可以显著增强技术,为更安全、更可靠的交通解决方案提供动力。优步人工智能实验室最近宣布的一项进步是D.燃灯neuroevolution其中进化算法,如进化策略......

欢迎深度神经进化的时代

0.
欢迎深度神经进化的时代

肯尼斯·o·斯坦利,杰夫·克伦著

代表优步人工智能实验室团队的还有Joel Lehman、Jay Chen、Edoardo Conti、Vashisht Madhavan、Felipe Petroski Such和Xingwen Zhang。

在深度学习领域,深度神经网络......

雷竞技是骗人的调查报告

纤维:用于加固学习和基于人口的方法的高效开发和分布式培训平台

j .智r .王Clune j .k·斯坦利
通过越来越多的计算,可以始终如一地实现了机器学习的最新进展。钢筋学习(RL)和基于人口的方法,特别是对潜在的分布式计算框架的效率和灵活性构成了独特的挑战。这些挑战包括与模拟的频繁交互,对动态缩放的需要,以及对不同后端的采用成本低的用户界面的需求。在本文中,我们通过引入光纤,可扩展的分布式计算框架来解决这些挑战,同时仍然保留了对研究和实际应用的开发效率和灵活性,可扩展的分布式计算框架用于RL和基于人口的方法。雷竞技是骗人的[...][PDF]
arxiv

增强的诗人:通过无限的发明来学习挑战和解决方案的开放式加强学习

r .王j·雷曼答:拉瓦尔大声回答j .智Y. Li.Clune j .k·斯坦利
创建开放的算法,产生它们自己的无穷无尽的新奇且具有适当挑战性的学习机会,可能有助于自动化并加速机器学习的进展。在这个方向上,最近的一个步骤是配对开放式开拓者(POET),这是一种生成并解决自己挑战的算法,并允许解决方案在挑战之间进行目标切换,以避免局部最优。在此,我们介绍并验证了原始算法的两个新创新,以及两个旨在帮助阐明其全部潜力的外部创新。[...][PDF]
国际机器学习会议(ICML.),2020年

Evolvenesity es:可扩展和直接优化的进化性

A. Gajewski.Clune j .k·o·斯坦利j·雷曼
设计能够发现高度演化表示的进化算法是一个开放的挑战;这种可进化性很重要,因为它加速了进化,使我们能够快速适应不断变化的环境。本文介绍了可演化性ES,一种为可演化性即进一步适应能力而设计的明确而有效的优化进化算法。[...][PDF]
遗传与进化计算会议(Gecco.),2019年

通过功能可视化了解神经网络:调查

A. Nguyen.J. Yosinski.Clune j .
神经科学的一种理解大脑的方法是找到并研究能够高度激活单个细胞或细胞群的首选刺激。机器学习的最新进展使一系列方法能够合成优先刺激,使人工或生物大脑中的神经元产生强烈的刺激。[...][PDF]
可解释AI:口译、解释和可视化深度学习, 2019年

配对的开放式开拓者(诗人):无休止地生成越来越复杂,不同的学习环境及其解决方案

r .王j·雷曼Clune j .k·斯坦利
到目前为止,机器学习的历史包含了研究人员提出的一系列问题,以及学习这些问题解决方案的算法,但一个重要的问题是,这些问题是否可以在被解决的同时由算法产生。雷竞技是骗人的[...][PDF]
2019年

探索:一种新的硬探索问题方法

答:EcoffetJ. Huizationa.j·雷曼k·斯坦利Clune j .
强化学习的一大挑战是智能探索,特别是当奖励很少或具有欺骗性的时候。有两款雅达利游戏作为这类艰难探索领域的基准:《Montezuma’s Revenge》和《Pitfall》。在这两款游戏中,当前的RL算法表现不佳,即使是那些具有内在动机的游戏也不例外,内在动机是提高艰难探索领域性能的主要方法。[...][PDF]
2019年

通过感知任务的生成不确定性对分布外输入的鲁棒性

麦卡利斯特先生,G.卡恩,Clune j .,S. Levine.
当观察结果类似于培训数据时,深入学习提供了一个强大的机器感知工具。然而,即使在意想不到的情况下,现实世界机器人系统必须智能地对其观察作出响应。这需要一个系统来推理自己的不确定性,给予不熟悉的,不合适的观察。[...][PDF]
机器人与自动化国际会议(ICRA.),2019年

用于分析,可视化和比较深增强学习代理的Atari模型动物园

f .这样诉MadhavanR. Liu.r .王,p. castro,Y. Li.舒伯特、贝勒梅尔、Clune j .j·雷曼
大量的人力和计算工作致力于提高深度强化学习算法在雅达利学习环境等基准上的表现。相对而言,较少的精力集中在理解通过这些方法学习到的东西,以及调查和比较不同家族的强化学习(RL)算法学习到的表示上。[...][PDF]
2018年

Backprapamine:培训具有可分离的神经统计可塑性的自我修饰神经网络

T. Miconi.答:拉瓦尔大声回答Clune j .k·斯坦利
强化学习的一大挑战是智能探索,特别是当奖励很少或具有欺骗性的时候。有两款雅达利游戏作为这类艰难探索领域的基准:《Montezuma’s Revenge》和《Pitfall》。在这两款游戏中,当前的RL算法表现不佳,即使是那些具有内在动机的游戏也不例外,内在动机是提高艰难探索领域性能的主要方法。为了解决这个不足,我们引入了一个新的算法,叫做Go-Explore。[...][PDF]
国际学习陈述会议(ICLR), 2019年

用组合多目标进化算法通过多个台阶进化多模态机器人行为

J. Huizationa.Clune j .
强化学习(包括进化机器人)的一个重要挑战是解决多模态问题,在这些问题中,智能体必须根据不同的环境以不同的方式行动。由于多模态问题往往很难直接解决,利用分段处理的优势是有帮助的,在分段处理中,一个困难的任务被分成更简单的子任务,可以作为解决整体问题的垫脚石。[...][PDF]
2017年

用深度学习技术自动识别、计数和描述相机陷阱图像中的野生动物

M. Norouzzadeh, A. Nguyen, M. Kosmala, A. Swanson, M. Palmer, C. Parker,Clune j .
有关野外动物的位置和行为的准确,详细和最新信息将彻底改变我们学习和保护生态系统的能力。我们调查自动,准确,廉价地收集此类数据的能力,这可以将许多生物学,生态和动物学领域转化为“大数据”科学。[...][PDF]
PNAS第115卷编号25,2018年

深度好奇心搜索:生活中的探索可以提高挑战性的深度增强学习问题的性能

c·斯坦顿Clune j .
RL中的传统探索方法要求代理执行随机行动来寻找奖励。但这些方法在诸如《Montezuma’s Revenge》等奖励稀少的领域并不适用,因为在该领域,任何随机行动序列都不太可能获得奖励。最近的算法通过鼓励agent访问新的状态或执行与之前所有训练集相关的新动作(我们称之为跨训练新颖性),在这类任务上表现得很好。[...][PDF]
2018年

vine:神经系的开源交互式数据可视化工具

r .王Clune j .k·斯坦利
深度神经发展的最新进展已经证明了进化算法,例如进化策略和遗传算法(GA),可以规模培训深度神经网络以解决困难的加强学习(RL)问题。然而,在这种高维度中分析和解释神经发展的基础过程仍然是一项挑战。要开始解决这一挑战,本文提出了一个互动数据可视化工具,称为Vine(Visual Insevolution),旨在帮助神经发展研究人员和最终用户更好地理解和探索这家算法。雷竞技是骗人的[...][PDF]
遗传与进化计算会议上的可视化研讨会(GECCO),2018年

可微塑性:用反向传播训练塑性神经网络

T. Miconi.Clune j .k·斯坦利
我们如何才能构建出在最初的培训之后,能够从经验中快速而有效地学习的代理?在这里,我们从生物大脑的主要学习机制中获得灵感:突触可塑性,通过进化精心调整,产生高效的终身学习。我们证明了塑性,就像连接权值一样,可以通过带有Hebbian塑料连接的大型(数百万参数)循环网络中的梯度下降来优化。[...][PDF]
机器学习国际会议(ICML),2018年

《数字进化的惊人创造力:来自进化计算和人工生命研究社区的奇闻轶事集》雷竞技是骗人的

j·雷曼Clune j .,D. Misevic,C.Adami,L.Altenberg,J.Beaulieu,P. Benulley,S. Bernard,G.Beslon,D. Bryson,P.Charabaszcz,N. Cheney,A. Cully,S. Doncieux,S. Doncieux,S. Doncieux,S. Doncieux,S. Doncieux,S. Doncieux,S. Doncieux,S. Doncieux,F。Dyer,K.Ellefsen,R.Feldt,S.Fischer,S. Forrest,A.Frénoy,C.Gagné,L. Goff,L.Grabowski,B. Hodjat,F. Hutch,C. Keller,C. Keller,C. Keller,C. Keller,C. Keller,C. Keller,C. Keller,C. Keller,C. Keller,C. Keller,C. Keller,C. Keller,C. Keller,C. Keller,C. Keller,C. Keller,C. Keller,C. Keller,C. Keller,C. Keller,C. Keller,C. Keller,C. Keller,C. Keller,C. Keller,C.凯勒那P. Krcah, R. Lenski, H. Lipson, R. MacCurdy, C. Maestre, R. Miikkulainen, S. Mitri, D. Moriarty, J. Mouret, A. Nguyen, C. Ofria, M. Parizeau, D. Parsons, R. Pennock, W. Punch, T. Ray, M. Schoenauer, E. Shulte, K. Sims,k·斯坦利F.塔代伊,D.塔拉波,S.蒂鲍尔特,W.魏默,R.沃森,J. Yosinski.
生物进化为复杂和微妙的适应提供了一种创造性的辉煌,经常令人惊讶的是发现它们的科学家。然而,因为进化是一种超越其发生的基材的算法过程,所以进化的创造力不限于自然。[...][PDF]
2018年

通过一群求新agent改进深度强化学习的进化策略探索

e .孔蒂诉Madhavanf .这样j·雷曼k·斯坦利Clune j .
进化策略(ES)是一个黑盒优化算法家族,能够训练深度神经网络,以及q -学习和策略梯度方法在挑战性的深度强化学习(RL)问题上,但更快(如小时vs天),因为它们的并行性更好。[...][PDF]
守夜@ NeurIPS 2017(内潜藏), 2017年

关于开放式演化策略与随机梯度下降的关系

X.张,Clune j .k·斯坦利
由于随机梯度下降(SGD)在优化神经网络方面表现出了良好的前景,它拥有数百万个参数,而已知的替代方案很少,因此它已经成为强化学习(RL)的主要方法的核心。[...][PDF]
2017年

通过输出梯度对深度和循环神经网络的安全突变

j·雷曼j·陈Clune j .k·斯坦利
虽然神经发展(不断发展的神经网络)在从加强学习到人造生命的各种域中具有成功的轨道记录,但它很少适用于大型深度神经网络。一种核心原因是,虽然随机突变通常在低维上工作,但是千万或数百万重量的随机扰动可能会破坏现有的功能,即使某些单独的重量变化是有益的,也没有学习信号。[...][PDF]
遗传和进化计算会议(GECCO),2018年

深度神经进化:遗传算法是一种竞争性的替代训练深度神经网络强化学习

f .这样诉Madhavan,E. Conti,j·雷曼k·斯坦利Clune j .
深度人工神经网络(DNN)通常通过基于梯度的学习算法训练,即反向化。进化策略可以对基于BackProp的算法,例如Q-Learning和政策梯度在挑战的深度加强学习(RL)问题上。[...][PDF]
深rl @ neurips 2018

ES不仅仅是一个传统的有限差分近似器

j·雷曼j·陈杰夫Clune肯尼斯·o·斯坦利
基于简化自然演化策略的进化策略最近引起了注意力,因为它在挑战的深度加强学习域中表现出令人惊讶。它通过生成当前参数集的扰动,检查它们的性能并在更高奖励的聚合方向上移动来搜索神经网络参数。[...][PDF]
遗传和进化计算会议(GECCO),2018年

基于扩散的神经调节可以消除简单神经网络中的灾难性遗忘

R. Velez,Clune j .
人工智能的一个长期目标是生产出能够在一生中学习多种技能并通过经验不断提高这些技能的代理。实现这一目标的一个长期障碍是灾难性遗忘,即在学习新信息时抹去之前学习过的信息。[...][PDF]
普罗斯一体, 2017年

在一个开放的、互动的进化系统中渠化和可进化性的出现

j .惠钦格k·斯坦利Clune j .
自然进化产生了种类繁多的功能性生物。许多人认为,这一过程的一个重要组成部分是可进化性的进化,通过产生更适应环境的后代,进化加速了创新的能力。[...][PDF]
人工生命(出现), 2017年

即插即用生成网络:在潜在空间中的图像迭代生成

a .阮Clune j .、本吉奥、多索维茨基、J. Yosinski.
生成高分辨率、逼真的图像一直是机器学习的一个长期目标。最近,Nguyen等人(2016)展示了一种有趣的方法,通过在生成器网络的潜在空间中执行梯度上升,以最大化单独分类器网络中的一个或多个神经元的激活,来合成新图像。在本文中,我们扩展这种方法通过引入额外的代码之前,提高样品质量和样本的多样性,导致了一个先进的生成模型,产生高质量的图像在更高的分辨率(227 x227)比先前的生成模型,并对于所有1000 ImageNet类别。[...][PDF]
计算机视觉和模式识别(CVPR), 2017年

AI-GAR:AI-生成算法,一种用于生产普通人工智能的交替范式

Clune j .
也许人类历史上最雄心勃勃的科学探索是创造通用人工智能,也就是与人类一样聪明甚至比人类更聪明的人工智能。机器学习领域的主流方法是试图发现智能所需的每一个部件,同时隐含着这样一种假设:未来的某个团队将完成一项艰巨的任务,找出如何将所有这些部件组合成一个复杂的思考机器。[...][PDF]
2016年

受欢迎的文章