跳到页脚
雷竞技是骗人的 人工智能 /机器学习 基于扩散的神经调节可以消除简单神经网络中的灾难性遗忘

基于扩散的神经调节可以消除简单神经网络中的灾难性遗忘

抽象的

AI的长期目标是生产可以在一生中学习各种技能的代理商,并通过经验不断提高这些技能。朝着该目标的长期障碍是灾难性的遗忘,这是当学习新信息消除先前学习的信息时。灾难性遗忘发生在人工神经网络(ANN)中,这加剧了AI的最新进展。最近的一篇论文提出,通过促进模块化可以减少ANN中的灾难性遗忘,这可以通过将任务信息隔离为节点和连接(功能模块)的特定群集来限制遗忘。虽然先前的工作确实表明,模块化的ANN遭受灾难性遗忘的损失较少,但它无法产生具有特定于任务功能模块的ANN,从而留下了有关模块化和忘记未经测试的主要理论。我们引入了基于扩散的神经调节,该神经调节模拟了可以在空间区域调节(即调节)学习的ANN中扩散的神经调节化学物质的释放。关于先前工作的简单诊断问题,基于扩散的神经调节1)在节点和连接组中诱导特定于任务的学习(特定于任务的本地化学习),这2)2)为每个子任务产生功能模块,而3)产生更高的功能通过消除灾难性遗忘来表现。总体而言,我们的结果表明,基于扩散的神经调节促进了特定于任务的局部学习和功能模块,这可以帮助解决灾难性遗忘的挑战但重要的问题。

作者

罗比·维勒斯(Roby Velez),杰夫·克莱恩(Jeff Clune)

出版物

PLOS ONE 12(11):E0187736。

完整的纸

“基于扩散的神经调节可以消除简单神经网络中的灾难性遗忘”(PDF)

Uber AI

注释
上一篇文章 成为您自己的Prada:结构连贯性的时尚综合
下一篇文章 变异高斯辍学不是贝叶斯
杰夫·克莱恩(Jeff Clune)
杰夫·克莱恩(Jeff Clune)是怀俄明大学(University of Wyoming)计算机科学的前Loy和Edith Harris副教授,他是Uber AI Labs的高级研究经理和创始成员,目前是OpenAI的研究团队负责人。雷竞技是骗人的杰夫通过深度学习和深入的强化学习专注于机器人技术和培训神经网络。他还使用进化的计算模型研雷竞技是骗人的究了进化生物学的开放问题,包括研究模块化,层次结构和进化性的进化起源。在成为教授之前,他曾是康奈尔大学的研究科学家,获得了计算机科学博士学位和密歇根州雷竞技是骗人的立大学的哲学硕士学位,并获得了密歇根大学的哲学学士学位。有关Jeff研究的更多信息,请访问j雷竞技是骗人的effclune.com