乐读窝

深度学习

乐读窝 > 文学理论 > 深度学习

20.13 其他生成方案

书籍名:《深度学习》    作者:伊恩.古德费洛



目前为止我们已经描述的方法,使用MCMC采样、原始采样或两者的一些混合来生成样本。虽然这些是生成式建模中最流行的方法,但它们绝不是唯一的方法。

Sohl-Dickstein  et  al.(2015)开发了一种基于非平衡热力学学习生成模型的扩散反演(diffusion  inversion)训练方案。该方法基于我们希望从中采样的概率分布具有结构的想法。这种结构会被递增地使概率分布具有更多熵的扩散过程逐渐破坏。为了形成生成模型,我们可以反过来运行该过程,通过训练模型逐渐将结构恢复到非结构化分布。通过迭代地应用使分布更接近目标分布的过程,我们可以逐渐接近该目标分布。在涉及许多迭代以产生样本的意义上,这种方法类似于MCMC方法。然而,模型被定义为由链的最后一步产生的概率分布。在这个意义上,没有由迭代过程诱导的近似。Sohl-Dickstein  et  al.(2015)介绍的方法也非常接近于去噪自编码器的生成解释(第20.11.1节)。与去噪自编码器一样,扩散反演训练一个尝试概率撤销添加噪声效果的转移算子。不同之处在于,扩散反演只需要消除扩散过程的一个步骤,而不是一直返回到一个干净的数据点。这解决了去噪自编码器的普通重建对数似然目标中存在的以下两难问题:小噪声的情况下学习者只能看到数据点附近的配置,而在大噪声的情况下,去噪自编码器被要求做几乎不可能的工作(因为去噪分布是高度复杂和多峰值的)。利用扩散反演目标,学习者可以更精确地学习数据点周围的密度形状,以及去除可能在远离数据点处出现的假性模式。

样本生成的另一种方法是近似贝叶斯计算(approximate  Bayesian  computation,ABC)框架(Rubin  et  al.,1984)。在这种方法中,样本被拒绝或修改以使样本选定函数的矩匹配期望分布的那些矩。虽然这个想法与矩匹配一样使用样本的矩,但它不同于矩匹配,因为它修改样本本身,而不是训练模型来自动发出具有正确矩的样本。Bachman  and  Precup(2015)展示了如何在深度学习的背景下使用ABC中的想法,即使用ABC来塑造GSN的MCMC轨迹。

我们期待更多等待发现的其他生成式建模方法。