跳到页脚
作者 罗萨刘的帖子

Rosanne Liu.

Rosanne Liu.
8个雷竞技到底好不好用博客文章 8研雷竞技是骗人的究论文
Rosanne是高级研究科学家和优步AI雷竞技是骗人的的创始成员。她在西北大学获得了博士学位,在那里使用神经网络来帮助探索新材料。她目前正在研究机器学习和神经网络神秘的多个前线。她试图在业余时间写作。

工程博客文章雷竞技到底好不好用

使用即插即用语言模型控制文本生成

0.
使用即插即用语言模型控制文本生成

本文基于该文件“即插即用语言模型:一种控制文本生成的简单方法由Sumanth Dathathri,Andrea Madotto,Janice Lan,Jane Hung,Eric Frank,Piero Molino,Jason Yosinski和Rosanne Liu。

......

介绍LCA:神经网络培训的损失变更分配

0.
介绍LCA:神经网络培训的损失变更分配

在过去十年中,神经网络(NNS)已经变得多产,现在在整个行业的电力机学习。在Uber,我们使用NNS进行各种目的,包括检测和预测自行车车辆的对象运动回应更多......

解构彩票:零,标志和超级掩码

0.
解构彩票:零,标志和超级掩码

在优步,我们应用神经网络,从根本上改善了我们如何理解城市中人物和事物的运动。在其他用例中,我们雇用它们以启用更快的客户服务响应具有自然语言模型和较低的等待......

第一个Uber Science Symposium:讨论下一代RL,NLP,Concai和DL

0.
第一个Uber Science Symposium:讨论下一代RL,NLP,Concai和DL

在Uber,数百个数据科学家,经济学家,AI研究人员和工程师,产品分析师,行为科学家和其他从业者利用科学方雷竞技是骗人的法来解决我们平台上的挑战。从建模与实验到数据分析,算法开发和基础研究,雷竞技是骗人的......

创建Atari演奏家的动物园,促进对深度加强学习的理解

0.
创建Atari演奏家的动物园,促进对深度加强学习的理解

这项研究是雷竞技是骗人的以谷歌大脑和Openai的合作者的宝贵帮助。

一系列培训代理人填充atari动物园。

AI最近的一些最令人兴奋的进步来自于深度加固领域......

从jpeg直接的神经网络更快

0.
从jpeg直接的神经网络更快

神经网络是一个重要的工具,用于在各种行业中处理数据,从过去几年中从学术研究区域增加到产业的基石。雷竞技是骗人的卷积神经网络(CNNS)对提取信息特别有用......

卷积神经网络和COORCONV解决方案的有趣失败

0.
卷积神经网络和COORCONV解决方案的有趣失败

Uber在许多域中使用卷积神经网络,这些域可能涉及协调变换,从设计自动驾驶车辆来自动化路牌检测,以构建地图并最大化超高级市场的空间运动效率。

在深度学习中,......

测量客观景观的内在尺寸

0.
测量客观景观的内在尺寸

神经网络在过去十年中彻底改变了机器学习,从一个相对模糊的学术研究区域升起到一个动力的主要应用程序的动力,无论何时提供大量数据。雷竞技是骗人的优步使用神经网络......

雷竞技是骗人的调查报告

具有深度确定性动态梯度的Q(S,S')

A. Edwards.,Himanshu Sahni,R. Liu.J. Hung.A. Jain.王王A. Ecoffet.T. Miconi.,c. isbell,J. Yosinski.
在本文中,我们引入了一种新颖的价值函数形式Q(S,S'),其表示从状态S转换到相邻状态S',然后此后的最佳地作用。为了获得最佳策略,我们开发了一个前向动态模型,该模型学会进行下一个最大化此值的下一个状态预测。[...][PDF]
国际机器学习会议(ICML.),2020年

即插即用语言模型:一种控制文本生成的简单方法

S. Dathathri,A. Madotto,J. LAN.J. Hung.E.弗兰克P. Molino.J. Yosinski.R. Liu.
基于大型文本语料库的大型变压器的语言模型(LMS)已经显示出无与伦比的生成功能。但是,控制生成的语言的属性(例如,切换主题或情绪)很困难,而无需修改模型架构或对属性特定数据的微调并导致重新培训的大量成本。我们提出了一个简单的替代方案:用于可控语言生成的插头和播放语言模型(PPLM),其将预磨限LM与一个或多个简单属性分类器结合,指导文本生成而无需进一步培训LM。[PDF]
学习陈述国际会议(iclr.),2020年

LCA:神经网络培训的损失变更分配

J. LAN.R. Liu.H.周J. Yosinski.
神经网络享有广泛的使用,但他们的培训,代表和操作的许多方面都很明显。特别是,我们的视图进入培训过程是有限的,单个标量损失是最常见的视口进入这种高维,动态过程。我们向训练提出了一个新的窗口,称为损耗变化分配(LCA),其中衡量网络丢失的变化保守地分区为参数。[...][PDF]
神经信息处理系统会议(内潜藏),2019年

解构彩票:零,标志和超级掩码

H.周J. LAN.R. Liu.J. Yosinski.
由于深度学习的复苏,近年来,光学字符识别(OCR)方法已被广泛推进。最先进的模型主要接受由受约束场景组成的数据集。从现实世界图像中检测和识别文本仍然是技术挑战。[...][PDF]
神经信息处理系统会议(内潜藏),2019年

用于分析,可视化和比较深增强学习代理的Atari模型动物园

F.这样V. Madhavan.R. Liu.王王,p. castro,Y. Li.,L. Schubert,M. Bellemare,J. Clune.J. Lehman.
许多人类和计算努力旨在改善深度加强学习算法如何在atari学习环境等基准上执行。相对较少的努力集中了解了解这些方法的学习,并调查和比较了加强学习(RL)算法的不同家庭学习的陈述。[...][PDF]
2018年

从jpeg直接的神经网络更快

L. Gueguen.A. Sergeev.,B. Kadlec,R. Liu.J. Yosinski.
直接从RGB像素直接训练卷积神经网络(CNNS)的简单,优雅的方法令人欣赏到压倒性的经验成功。但是可以通过使用不同的输入表示来挤出网络的性能更多?在本文中,我们提出并探索了一个简单的想法:直接列车CNNS,直接在计算和可在JPEG编解码器中间提供的块状离散余弦变换(DCT)系数。[...][PDF]
神经信息处理系统的进步(内潜藏),2018年

卷积神经网络和COORCONV解决方案的有趣失败

R. Liu.J. Lehman.P. Molino.F.I这样E.弗兰克A. Sergeev.J. Yosinski.
很少有想法已经享受了对深度学习作为卷积的影响。对于涉及像素或空间表示的任何问题,常见的直觉保持卷积神经网络可能是合适的。在本文中,我们通过看似微不足道的坐标变换问题向这种直觉展示了一个引人注目的反例,这简单地需要学习(x,y)笛卡尔空间和单个热像素空间之间的坐标之间的映射。[...][PDF]
神经信息处理系统的进步(内潜藏),2018年

测量客观景观的内在尺寸

春源李,休雷德·芬湾,R. Liu.J. Yosinski.
许多最近训练的神经网络采用大量参数来实现良好的性能。可以直观地使用作为问题难度的粗略仪表所需的参数数量。但是这些概念有多准确?真正需要多少参数?在本文中,我们试图通过培训不在本机参数空间中的网络来回答这个问题,而是在一个较小的随机定向的子空间中。[...][PDF]
学习陈述国际会议(iclr.),2018年

流行文章