摘要
尽管神经网络得到了广泛的应用,但它们仍在努力学习基本的物理定律。我们如何赋予他们更好的归纳偏差?在本文中,我们从哈密顿力学中得到启示,训练模型,学习和尊重精确的守恒定律在无监督的方式。我们在能量守恒很重要的问题上评估我们的模型,包括二体问题和摆的像素观测。我们的模型比常规的神经网络训练更快,泛化更好。一个有趣的副作用是我们的模型在时间上完全可逆。
作者
山姆·格雷达努斯,米斯科·赞巴,杰森Yosinski
会议
NeurIPS 2019
论文全文
超级人工智能
评论
尽管神经网络得到了广泛的应用,但它们仍在努力学习基本的物理定律。我们如何赋予他们更好的归纳偏差?在本文中,我们从哈密顿力学中得到启示,训练模型,学习和尊重精确的守恒定律在无监督的方式。我们在能量守恒很重要的问题上评估我们的模型,包括二体问题和摆的像素观测。我们的模型比常规的神经网络训练更快,泛化更好。一个有趣的副作用是我们的模型在时间上完全可逆。
山姆·格雷达努斯,米斯科·赞巴,杰森Yosinski
NeurIPS 2019
超级人工智能