摘要
我们提出了一种新的高效、富有表现力的图的深层生成模型,称为图循环注意网络(GRANs)。我们的模型每次生成一个节点块和相关边的图。块大小和采样步幅允许我们在效率和样本质量之间进行权衡。与以前的基于rnn的图生成模型相比,我们的框架更好地捕捉了使用图神经网络(gnn)已生成和待生成部分之间的自回归条件反射。这不仅减少了对节点排序的依赖,而且也绕过了rnn的顺序特性所导致的长期瓶颈。此外,我们使用混合伯努利参数化每个块的输出分布,这捕获了块内生成的边缘之间的相关性。最后,我们提出通过边缘化一系列规范排序来处理生成中的节点排序。在标准基准上,与以前的模型相比,我们实现了最先进的时间效率和样本质量。此外,我们还展示了我们的模型能够生成高质量的高达5K节点的大型图。据我们所知,GRAN是第一个可以扩展到这个规模的深度图生成模型。 Our code is released at: this https URL.
作者
Renjie廖,李玉佳,宋杨,神龙王、查理·纳什、威廉·l·汉密尔顿、大卫·杜维诺、拉奎尔Urtasun理查德·s·泽梅尔(Richard S. Zemel
会议
NeurIPS 2019
论文全文
超级ATG
评论