抽象的
AI的长期目标是生产可以在一生中学习各种技能的代理商,并通过经验不断提高这些技能。朝着该目标的长期障碍是灾难性的遗忘,这是当学习新信息消除先前学习的信息时。灾难性遗忘发生在人工神经网络(ANN)中,这加剧了AI的最新进展。最近的一篇论文提出,通过促进模块化可以减少ANN中的灾难性遗忘,这可以通过将任务信息隔离为节点和连接(功能模块)的特定群集来限制遗忘。虽然先前的工作确实表明,模块化的ANN遭受灾难性遗忘的损失较少,但它无法产生具有特定于任务功能模块的ANN,从而留下了有关模块化和忘记未经测试的主要理论。我们引入了基于扩散的神经调节,该神经调节模拟了可以在空间区域调节(即调节)学习的ANN中扩散的神经调节化学物质的释放。关于先前工作的简单诊断问题,基于扩散的神经调节1)在节点和连接组中诱导特定于任务的学习(特定于任务的本地化学习),这2)2)为每个子任务产生功能模块,而3)产生更高的功能通过消除灾难性遗忘来表现。总体而言,我们的结果表明,基于扩散的神经调节促进了特定于任务的局部学习和功能模块,这可以帮助解决灾难性遗忘的挑战但重要的问题。
作者
罗比·维勒斯(Roby Velez),杰夫·克莱恩(Jeff Clune)
出版物
PLOS ONE 12(11):E0187736。
完整的纸
“基于扩散的神经调节可以消除简单神经网络中的灾难性遗忘”(PDF)
Uber AI
注释