论文精读 IDDPM

摘要

IDDPM对原始DDPM做出了改进,提高了性能。引入了:

  1. 参数化方差项,可学习
  2. 噪声策略的改进
  3. 均匀采样改进为重要性采样

论文:Improved Denoising Diffusion Probabilistic Models

DDPM回顾

正向过程q:

反向过程p无法直接求得,假设其为高斯分布:
q的后验分布:

优化目标是使得q的后验分布$q(x{t-1}|x_t,x_0)p\theta(x_{t-1}|x_t)x_0$,也可以预测噪声来拟合均值。实验发现预测噪声效果更好,即:

IDDPM

参数化方差项

DDPM中的方差忽略了前面的系数直接设置为了,对结果影响不大,这是因为两者差异很小(尤其在T很大,或者扩散步数增大时)。然而在步数较小时的变分下界对损失有较大的影响,因此设计更好的方差学习方案有利于优化对数似然。

image-20240603125842046

image-20240603130252631

新的方差为$\Sigma\theta(x_t,t)=exp(v\log \beta_t +(1-v)\log \tilde{\beta}_t)L{hybrid}=L{simple}+\lambda L{vlb}\lambda$为0.001

噪声策略的改进

DDPM的是线性增长的,导致前向过程加噪速度过快,改进为cosine schedule的方式。

image-20240603131203765

重要性采样

希望直接优化$L{vlb}L{hybrid}L_{vlb}L_t$,大的地方多采样一些点,小的地方少采样。

image-20240603132424956

image-20240603132511968