改进神经网络在马尔可夫链中去噪效果的方法及公式推导
在图像去噪任务中,利用马尔可夫链和神经网络是一种常见且有效的方法。本文将介绍一种改进神经网络在马尔可夫链中去噪效果的方法,并详细推导相关公式。
一、改进方法的核心思想
传统的神经网络在马尔可夫链中去噪时,通常是预测去噪后的图像。而这里提出一种改进方法,即让神经网络预测添加到原始图像上的总噪声,而不是直接预测去噪后的图像。这种方法可以带来更高质量的去噪结果。
二、关键公式推导
1. 公式(20.34)(20.34)(20.34)
原始公式(20.8)(20.8)(20.8)经过重新排列得到:
x=1αtzt−1−αtαtϵt \mathbf{x} = \frac{1}{\sqrt{\alpha_t}}\mathbf{z}_t - \frac{\sqrt{1 - \alpha_t}}{\sqrt{\alpha_t}}\boldsymbol{\epsilon}_t x=αt1zt−αt1−αtϵt
其中,x\mathbf{x}x 是原始数据向量,zt\mathbf{z}_tzt 是在马尔可夫链第 ttt 步的带噪图像,ϵt\boldsymbol{\epsilon}_tϵt 是添加的噪声,αt\alpha_tαt 是一个与步骤相关的参数。
2. 公式(20.35)(20.35)(20.35)
将公式(20.34)(20.34)(20.34)代入公式(20.16)(20.16)(20.16)(同样未明确给出,但可推测与反向条件分布的均值有关),得到反向条件分布 q(zt−1∣zt,x)q(\mathbf{z}_{t - 1}|\mathbf{z}_t, \mathbf{x})q(zt−1∣zt,x) 的均值 mt(x,zt)\mathbf{m}_t(\mathbf{x}, \mathbf{z}_t)mt(x,zt) 的表达式:
mt(x,zt)=11−βt{zt−βt1−αtϵt} \mathbf{m}_t(\mathbf{x}, \mathbf{z}_t) = \frac{1}{\sqrt{1 - \beta_t}}\left\{\mathbf{z}_t - \frac{\beta_t}{\sqrt{1 - \alpha_t}}\boldsymbol{\epsilon}_t\right\} mt(x,zt)=1−βt1{zt−1−αtβtϵt}
其中,βt\beta_tβt 是另一个与步骤相关的参数。
3. 引入新的神经网络
通常,神经网络 μ(zt,w,t)\boldsymbol{\mu}(\mathbf{z}_t, \mathbf{w}, t)μ(zt,w,t) 用于预测去噪后的图像。现在引入一个新的神经网络 g(zt,w,t)\mathbf{g}(\mathbf{z}_t, \mathbf{w}, t)g(zt,w,t),其目标是预测添加到 x\mathbf{x}x 上以生成 zt\mathbf{z}_tzt 的总噪声。
4. 公式(20.36)(20.36)(20.36)
通过与推导(20.35)(20.35)(20.35)相同的步骤,可以得到两个神经网络函数之间的关系:
μ(zt,w,t)=11−βt{zt−βt1−αtg(zt,w,t)} \boldsymbol{\mu}(\mathbf{z}_t, \mathbf{w}, t) = \frac{1}{\sqrt{1 - \beta_t}}\left\{\mathbf{z}_t - \frac{\beta_t}{\sqrt{1 - \alpha_t}}\mathbf{g}(\mathbf{z}_t, \mathbf{w}, t)\right\} μ(zt,w,t)=1−βt1{zt−1−αtβtg(zt,w,t)}
5. KL散度公式的推导
- 初始的KL散度表达式:公式(20.33)(20.33)(20.33)(未明确写出,但可推测)是计算两个分布之间的Kullback - Leibler(KL)散度,形式为 KL(q(zt−1∣zt,x)∥p(zt−1∣zt,w))\text{KL}(q(\mathbf{z}_{t - 1}|\mathbf{z}_t, \mathbf{x}) \| p(\mathbf{z}_{t - 1}|\mathbf{z}_t, \mathbf{w}))KL(q(zt−1∣zt,x)∥p(zt−1∣zt,w))。KL散度用于衡量两个概率分布之间的差异。
- 代入均值表达式:将前面得到的 mt(x,zt)\mathbf{m}_t(\mathbf{x}, \mathbf{z}_t)mt(x,zt) 和 μ(zt,w,t)\boldsymbol{\mu}(\mathbf{z}_t, \mathbf{w}, t)μ(zt,w,t) 的表达式代入KL散度公式中。
- 简化KL散度表达式:对于高斯分布,当两个高斯分布 q∼N(μq,Σq)q \sim \mathcal{N}(\boldsymbol{\mu}_q, \boldsymbol{\Sigma}_q)q∼N(μq,Σq) 和 p∼N(μp,Σp)p \sim \mathcal{N}(\boldsymbol{\mu}_p, \boldsymbol{\Sigma}_p)p∼N(μp,Σp) 的协方差矩阵满足 Σq=Σp\boldsymbol{\Sigma}_q = \boldsymbol{\Sigma}_pΣq=Σp 时,KL散度可以简化为:
KL(q∥p)=12((μp−μq)TΣ−1(μp−μq)) \text{KL}(q \| p) = \frac{1}{2} \left( (\boldsymbol{\mu}_p - \boldsymbol{\mu}_q)^T \boldsymbol{\Sigma}^{-1} (\boldsymbol{\mu}_p - \boldsymbol{\mu}_q) \right) KL(q∥p)=21((μp−μq)TΣ−1(μp−μq))
经过推导可以得到:
KL(q(zt−1∣zt,x)∥p(zt−1∣zt,w))=βt2(1−αt)(1−βt)∥g(zt,w,t)−ϵt∥2+const \text{KL}(q(\mathbf{z}_{t - 1}|\mathbf{z}_t, \mathbf{x}) \| p(\mathbf{z}_{t - 1}|\mathbf{z}_t, \mathbf{w})) = \frac{\beta_t}{2(1 - \alpha_t)(1 - \beta_t)} \left\| \mathbf{g}(\mathbf{z}_t, \mathbf{w}, t) - \boldsymbol{\epsilon}_t \right\|^2 + \text{const} KL(q(zt−1∣zt,x)∥p(zt−1∣zt,w))=2(1−αt)(1−βt)βt∥g(zt,w,t)−ϵt∥2+const - 代入 zt\mathbf{z}_tzt 的表达式:根据(20.8)(20.8)(20.8),zt\mathbf{z}_tzt 可以表示为 zt=αtx+1−αtϵt\mathbf{z}_t = \sqrt{\alpha_t}\mathbf{x} + \sqrt{1 - \alpha_t}\boldsymbol{\epsilon}_tzt=αtx+1−αtϵt。将 zt\mathbf{z}_tzt 的表达式代入到 g(zt,w,t)\mathbf{g}(\mathbf{z}_t, \mathbf{w}, t)g(zt,w,t) 中,得到最终的表达式:
KL(q(zt−1∣zt,x)∥p(zt−1∣zt,w))=βt2(1−αt)(1−βt)∥g(αtx+1−αtϵt,w,t)−ϵt∥2+const \text{KL}(q(\mathbf{z}_{t - 1}|\mathbf{z}_t, \mathbf{x}) \| p(\mathbf{z}_{t - 1}|\mathbf{z}_t, \mathbf{w})) = \frac{\beta_t}{2(1 - \alpha_t)(1 - \beta_t)} \left\| \mathbf{g}(\sqrt{\alpha_t}\mathbf{x} + \sqrt{1 - \alpha_t}\boldsymbol{\epsilon}_t, \mathbf{w}, t) - \boldsymbol{\epsilon}_t \right\|^2 + \text{const} KL(q(zt−1∣zt,x)∥p(zt−1∣zt,w))=2(1−αt)(1−βt)βt g(αtx+1−αtϵt,w,t)−ϵt 2+const
三、总结
通过改变神经网络的预测目标,从预测去噪图像变为预测添加的噪声,并经过上述一系列的公式推导,展示了如何通过调整神经网络 g(zt,w,t)\mathbf{g}(\mathbf{z}_t, \mathbf{w}, t)g(zt,w,t) 来最小化两个分布之间的KL散度,从而提高去噪效果。这种方法为图像去噪任务提供了一种新的思路和有效的手段。
以上就是本次分享的内容,希望对大家在图像去噪领域的研究和实践有所帮助。