机器学习的数学基础(三)——概率与信息论

发布于:2025-02-19 ⋅ 阅读:(23) ⋅ 点赞:(0)

1. 随机变量

  随机变量是可以随机地取不同值的变量。一个随机变量只是对可能的状态的描述,它必须伴随一个概率分布来指定每个状态的可能性。
  随机变量可以是离散的或者连续的。离散随机变量拥有有限或者可数无限多的状态(这些状态不一定非要是整数,它们可能只是一些被命名的状态而没有数值)。连续随机变量伴随着实数值。

2. 概率分布

  概率分布用来描述随机变量或一簇随机变量在每一个可能取到的状态的可能性大小。描述概率分布的方式取决于随机变量是离散的还是连续的。

2.1 离散型变量和概率质量函数

  离散型变量的概率分布可以用概率质量函数来描述,用大写字母 P \mathrm{P} P来表示。概率质量函数将随机变量能够取得的每个状态映射到随机变量取得该状态的概率。 x = x \mathrm{x}=x x=x的概率用 P ( x ) \mathrm{P}(x) P(x)来表示。概率为1表示 x = x \mathrm{x}=x x=x是确定,概率为0表示 x = x \mathrm{x}=x x=x是不可能发生的。用如下符号表示随机变量服从何种分布:
x ∼ P ( x ) . \mathrm{x}\sim \mathrm{P}(\mathrm{x}). xP(x).
  概率质量函数可以同时作用于多个随机变量,这种多个变量的概率分布称为联合概率分布, P ( x = x , y = y ) \mathrm{P}(\mathrm{x}=x,\mathrm{y}=y) P(x=x,y=y)表示 x = x \mathrm{x}=x x=x y = y \mathrm{y}=y y=y同时发生的概率,可以简写为 P ( x , y ) \mathrm{P}(x,y) P(x,y)
  如果一个函数 P \mathrm{P} P是随机变量 x \mathrm{x} x的概率质量函数,必须满足如下几个条件:
  1. P \mathrm{P} P的定义域必须是 x \mathrm{x} x所有可能状态的集合。
  2. ∀ x ∈ x , 0 ≤ P ( x ) ≤ 1 \forall x\in \mathrm{x}, 0\le \mathrm{P}(x)\le 1 xx,0P(x)1
  3. ∑ x ∈ x P ( x ) = 1 \displaystyle\sum_{x\in \mathrm{x}}\mathrm{P}(x)=1 xxP(x)=1

2.2 连续型变量和概率密度函数

  但研究的对象是连续型随机变量时,用概率密度函数来描述它的概率分布。如果一个函数 p \mathrm{p} p是概率密度函数,必须满足下面几个条件:
  1. p \mathrm{p} p的定义域必须是 x \mathrm{x} x所有可能状态的集合。
  2. ∀ x ∈ x , p ( x ) ≥ 0 \forall x\in \mathrm{x}, \mathrm{p}(x)\ge0 xx,p(x)0
  3. ∫ p ( x ) d x = 1 \displaystyle\int \mathrm{p}(x)dx=1 p(x)dx=1
  概率密度函数 p ( x ) \mathrm{p}(x) p(x)并没有直接对特定状态给出概率,可以对概率密度函数求积分来获得点集的真实概率质量。在单随机变量的例子中, x x x落在区间 [ a , b ] [a, b] [a,b]的概率是 ∫ a b p ( x ) d x \displaystyle\int_a^b \mathrm{p}(x)dx abp(x)dx

3. 边缘概率

  在已知一组变量的联合概率分布时,要求出其中一个子集的概率分布。这种定义在子集上的概率分布被称为边缘概率分布。
  对于离散型随机变量,假设有离散型随机变量 x \mathrm{x} x y \mathrm{y} y,已知 P ( x , y ) \mathrm{P}(x,y) P(x,y),可以通过求和法则来计算 P ( x ) \mathrm{P}(x) P(x)
∀ x ∈ x , P ( x = x ) = ∑ y P ( x = x , y = y ) . \forall x\in \mathrm{x}, \mathrm{P}(\mathrm{x}=x)=\sum_{y}\mathrm{P}(\mathrm{x}=x, \mathrm{y}=y). xx,P(x=x)=yP(x=x,y=y).
  对于连续型随机变量,需要用积分代替求和:
p ( x ) = ∫ p ( x , y ) d y . \mathrm{p}(x)=\int \mathrm{p}(x, y)dy. p(x)=p(x,y)dy.

4. 条件概率

  在很多情况下,我们更关心的是某个事件在给定其他事件发生时出现的概率,这种概率称为条件概率,将给定 x = x \mathrm{x}=x x=x y = y \mathrm{y}=y y=y发生的条件概率记作 P ( y = y ∣ x = x ) \mathrm{P}(\mathrm{y}=y|\mathrm{x}=x) P(y=yx=x)。这个条件概率可以通过如下的公式计算:
P ( y = y ∣ x = x ) = P ( x = x , y = y ) P ( x = x ) . \mathrm{P}(\mathrm{y}=y| \mathrm{x}=x)=\frac{\mathrm{P}(\mathrm{x}=x, \mathrm{y}=y)}{\mathrm{P}(\mathrm{x}=x)}. P(y=yx=x)=P(x=x)P(x=x,y=y).
条件概率只在 P ( x = x ) > 0 \mathrm{P}(\mathrm{x}=x)\gt0 P(x=x)>0时有定义。

5. 条件概率的链式法则

  任何多维随机变量的联合概率分布,都可以分解成只有一个变量的条件概率相乘的形式:
P ( x ( 1 ) , ⋯   , x ( n ) ) = P ( x ( 1 ) ) ∏ i = 2 n P ( x ( i ) ∣ x ( 1 ) , ⋯   , x ( i − 1 ) ) . \mathrm{P}(\mathrm{x}^{(1)}, \cdots, \mathrm{x}^{(n)})=P(\mathrm{x}^{(1)})\prod_{i=2}^n \mathrm{P}(\mathrm{x}^{(i)}|\mathrm{x}^{(1)}, \cdots, \mathrm{x}^{(i-1)}). P(x(1),,x(n))=P(x(1))i=2nP(x(i)x(1),,x(i1)).
这个规则称为概率的链式法则,它可以直接从条件概率的定义中得到。
  比如:
P ( a , b , c ) = P ( a ∣ b , c ) P ( b , c ) = P ( a ∣ b , c ) P ( b ∣ c ) P ( c ) . \begin{aligned}\mathrm{P}(\mathrm{a}, \mathrm{b}, \mathrm{c})&=\mathrm{P}(\mathrm{a}|\mathrm{b}, \mathrm{c})\mathrm{P}(\mathrm{b}, \mathrm{c})\\&=\mathrm{P}(\mathrm{a}|\mathrm{b}, \mathrm{c})\mathrm{P}(\mathrm{b}|\mathrm{c})\mathrm{P}(\mathrm{c}). \end{aligned} P(a,b,c)=P(ab,c)P(b,c)=P(ab,c)P(bc)P(c).

6. 独立性和条件独立性

  两个随机变量 x \mathrm{x} x y \mathrm{y} y,如果它们的概率分布可以表示为两个因子的乘积形式,并且一个因子只包含 x \mathrm{x} x,另一个因子只包含 y \mathrm{y} y,则称这两个随机变量是相互独立的:
∀ x ∈ x , y ∈ y , p ( x = x , y = y ) = p ( x = x ) p ( y = y ) . \forall x\in \mathrm{x}, y\in \mathrm{y}, \mathrm{p}(\mathrm{x}=x, \mathrm{y}=y)=\mathrm{p}(\mathrm{x}=x)\mathrm{p}(\mathrm{y}=y). xx,yy,p(x=x,y=y)=p(x=x)p(y=y).
  如果关于 x \mathrm{x} x y \mathrm{y} y的条件概率分布对于 z \mathrm{z} z的每一个值都可以写成乘积的形式,那么这两个随机变量 x \mathrm{x} x y \mathrm{y} y在给定随机变量 z \mathrm{z} z时是条件独立的:
∀ x ∈ x , y ∈ y , z ∈ z , p ( x = x , y = y ∣ z = z ) = p ( x = x ∣ z = z ) p ( y = y ∣ z = z ) . \forall x\in \mathrm{x}, y\in \mathrm{y}, z\in \mathrm{z}, \mathrm{p}(\mathrm{x}=x, \mathrm{y}=y| \mathrm{z}=z)=\mathrm{p}(\mathrm{x}=x|\mathrm{z}=z)\mathrm{p}(\mathrm{y}=y|\mathrm{z}=z). xx,yy,zz,p(x=x,y=yz=z)=p(x=xz=z)p(y=yz=z).
   x ⊥ y \mathrm{x}\perp \mathrm{y} xy表示 x \mathrm{x} x y \mathrm{y} y相互独立, x ⊥ y ∣ z \mathrm{x}\perp \mathrm{y}|\mathrm{z} xyz表示 x \mathrm{x} x y \mathrm{y} y在给定 z \mathrm{z} z时条件独立。

7. 期望、方差和协方差

7.1 期望

  函数 f ( x ) f(x) f(x)关于某分布 P ( x ) \mathrm{P}(\mathrm{x}) P(x)的期望或者期望值是指当 x x x P \mathrm{P} P产生, f f f作用于 x x x时, f ( x ) f(x) f(x)的平均值。对于离散型随机变量,期望可以通过求和得到:
E x ∼ P [ f ( x ) ] = ∑ x P ( x ) f ( x ) . E_{x\sim \mathrm{P}}[f(x)]=\sum_{x}\mathrm{P}(x)f(x). ExP[f(x)]=xP(x)f(x).
  对于连续型随机变量,期望可以通过积分得到:
E x ∼ p [ f ( x ) ] = ∫ p ( x ) f ( x ) d x . E_{x\sim \mathrm{p}}[f(x)]=\int \mathrm{p}(x)f(x)dx. Exp[f(x)]=p(x)f(x)dx.
  期望是线性的: E x [ α f ( x ) + β g ( x ) ] = α E x [ f ( x ) ] + β E x [ g ( x ) ] . E_{\mathrm{x}}[\alpha f(x)+\beta g(x)]=\alpha E_{\mathrm{x}}[f(x)]+\beta E_{\mathrm{x}}[g(x)]. Ex[αf(x)+βg(x)]=αEx[f(x)]+βEx[g(x)].

7.2 方差

  方差衡量的是对 x x x依据它的概率分布进行采样时,随机变量 x \mathrm{x} x的函数值会呈现多大的差异:
V a r ( f ( x ) ) = E [ ( f ( x ) − E [ f ( x ) ] ) 2 ] = E [ f 2 ( x ) ] − 2 E [ f ( x ) E [ f ( x ) ] ] + E [ E 2 [ f ( x ) ] ] = E [ f 2 ( x ) ] − 2 E 2 [ f ( x ) ] + E 2 [ f ( x ) ] = E [ f 2 ( x ) ] − E 2 [ f ( x ) ] \begin{aligned}Var(f(x))&=E[(f(x)-E[f(x)])^2]\\ &=E[f^2(x)]-2E[f(x)E[f(x)]]+E[E^2[f(x)]]\\ &=E[f^2(x)]-2E^2[f(x)]+E^2[f(x)]\\ &=E[f^2(x)]-E^2[f(x)]\end{aligned} Var(f(x))=E[(f(x)E[f(x)])2]=E[f2(x)]2E[f(x)E[f(x)]]+E[E2[f(x)]]=E[f2(x)]2E2[f(x)]+E2[f(x)]=E[f2(x)]E2[f(x)]
当方差很小时, f ( x ) f(x) f(x)的值形成的簇比较接近它们的期望值。方差的平方根被称为标准差。

7.3 协方差

  协方差在某种意义上给出了两个变量线性相关性的强度以及这些变量的尺度:
C o v ( f ( x ) , g ( y ) ) = E [ ( f ( x ) − E [ f ( x ) ] ) ( g ( y ) − E [ g ( y ) ] ) ] = E [ f ( x ) g ( y ) − E [ f ( x ) ] g ( y ) − E [ g ( y ) ] f ( x ) + E [ f ( x ) ] E [ g ( y ) ] ] = E [ f ( x ) g ( y ) ] − 2 E [ f ( x ) ] E [ g ( y ) ] + E [ f ( x ) ] E [ g ( y ) ] = E [ f ( x ) g ( y ) ] − E [ f ( x ) ] E [ g ( y ) ] \begin{aligned}Cov(f(x), g(y))&=E[(f(x)-E[f(x)])(g(y)-E[g(y)])]\\ &=E[f(x)g(y)-E[f(x)]g(y)-E[g(y)]f(x)+E[f(x)]E[g(y)]]\\ &=E[f(x)g(y)]-2E[f(x)]E[g(y)]+E[f(x)]E[g(y)]\\ &=E[f(x)g(y)]-E[f(x)]E[g(y)]\end{aligned} Cov(f(x),g(y))=E[(f(x)E[f(x)])(g(y)E[g(y)])]=E[f(x)g(y)E[f(x)]g(y)E[g(y)]f(x)+E[f(x)]E[g(y)]]=E[f(x)g(y)]2E[f(x)]E[g(y)]+E[f(x)]E[g(y)]=E[f(x)g(y)]E[f(x)]E[g(y)]
协方差的绝对值如果很大,则意味着变量值变化很大,并且它们同时距离各自的均值很远。如果协方差是正的,那么两个变量都倾向于同时取得相对较大的值;如果协方差是负的,那么其中一个变量倾向于取得相对较大的值的同时,另一个变量倾向于取得相对较小的值。
  协方差和相关性是有联系的,如果两个变量相互独立,那么它们的协方差为零;如果两个变量的协方差不为零,那么它们一定是相关的。
  如果两个变量的协方差为零,它们之间一定没有线性关系。
  随机向量 x ∈ R n x\in \mathbb{R}^n xRn的协方差矩阵是一个 n × n n\times n n×n的矩阵,并且满足 C o v ( x ) i , j = C o v ( x i , x j ) Cov(x)_{i, j}=Cov(x_i, x_j) Cov(x)i,j=Cov(xi,xj),该矩阵的对角元是方差: C o v ( x i , x i ) = V a r ( x i ) Cov(x_i, x_i)=Var(x_i) Cov(xi,xi)=Var(xi)

8. 常用概率分布

8.1 均匀分布 U ( a , b ) U(a, b) U(a,b)

  实数区间上的均匀分布 U ( a , b ) U(a, b) U(a,b),其中 a a a b b b是区间的端点且满足 b > a b\gt a b>a,均匀分布的概率密度函数为:
u ( x ; a , b ) = { 0 , x ∉ [ a , b ] 1 b − a , x ∈ [ a , b ] . \begin{aligned}u(x;a, b)=\left\{\begin{aligned}0\quad, &x\notin [a, b]\\ \frac{1}{b-a},&x\in [a, b].\end{aligned}\right.\end{aligned} u(x;a,b)= 0,ba1,x/[a,b]x[a,b].
  期望:
E ( x ) = ∫ a b x b − a d x = x 2 2 ( b − a ) ∣ a b = b 2 − a 2 2 ( b − a ) = a + b 2 . \begin{aligned}E(x)&=\int_a^b \frac{x}{b-a}dx =\left.\frac{x^2}{2(b-a)}\right|_a^b=\frac{b^2-a^2}{2(b-a)}=\frac{a+b}{2}.\end{aligned} E(x)=abbaxdx=2(ba)x2 ab=2(ba)b2a2=2a+b.
  方差:
V a r ( x ) = E ( x 2 ) − E 2 ( x ) = ∫ a b x 2 b − a d x − ( a + b ) 2 4 = x 3 3 ( b − a ) ∣ a b − ( a + b ) 2 4 = b 3 − a 3 3 ( b − a ) − ( a + b ) 2 4 = b 2 + a b + a 2 3 − a 2 + 2 a b + b 2 4 = 4 b 2 + 4 a b + 4 a 2 − 3 a 2 − 6 a b − 3 b 2 12 = a 2 − 2 a b + b 2 12 = ( a − b ) 2 12 \begin{aligned}Var(x)&=E(x^2)-E^2(x)\\ &=\int_a^b \frac{x^2}{b-a}dx-\frac{(a+b)^2}{4}\\ &=\left. \frac{x^3}{3(b-a)}\right|_a^b-\frac{(a+b)^2}{4}\\ &=\frac{b^3-a^3}{3(b-a)}-\frac{(a+b)^2}{4}\\ &=\frac{b^2+ab+a^2}{3}-\frac{a^2+2ab+b^2}{4}\\ &=\frac{4b^2+4ab+4a^2-3a^2-6ab-3b^2}{12}\\ &=\frac{a^2-2ab+b^2}{12}=\frac{(a-b)^2}{12}\end{aligned} Var(x)=E(x2)E2(x)=abbax2dx4(a+b)2=3(ba)x3 ab4(a+b)2=3(ba)b3a34(a+b)2=3b2+ab+a24a2+2ab+b2=124b2+4ab+4a23a26ab3b2=12a22ab+b2=12(ab)2

8.2 Bernoulli分布

  Bernoulli分布是单个二值随机变量的分布,它由单个参数 ψ ∈ [ 0 , 1 ] \psi\in[0,1] ψ[0,1]控制, ψ \psi ψ给出了随机变量等于1的概率,它的概率质量函数为:
P ( x = x ) = ψ x ( 1 − ψ ) 1 − x = { 1 − ψ , x = 0 ψ , x = 1. \begin{aligned}\mathrm{P(x}=x)=\psi^x(1-\psi)^{1-x}=\left\{\begin{aligned}1-\psi,&x=0\\ \psi\quad,&x=1.\end{aligned}\right.\end{aligned} P(x=x)=ψx(1ψ)1x={1ψ,ψ,x=0x=1.
  期望:
E ( x ) = 0 × ( 1 − ψ ) + 1 × ψ = ψ . E(\mathrm{x})=0\times(1-\psi)+1\times \psi=\psi. E(x)=0×(1ψ)+1×ψ=ψ.
  方差:
V a r ( x ) = E ( x 2 ) − E 2 ( x ) = ψ − ψ 2 = ψ ( 1 − ψ ) . Var(x)=E(x^2)-E^2(x)=\psi-\psi^2=\psi(1-\psi). Var(x)=E(x2)E2(x)=ψψ2=ψ(1ψ).

8.3 Multinoulli分布

  Multinoulli分布是指在具有 k k k个不同状态的单个离散型随机变量上的分布,其中 k k k是一个有限值。Multinoulli分布由向量 p ∈ [ 0 , 1 ] k − 1 p\in[0, 1]^{k-1} p[0,1]k1参数化,其中每一个分量 p i p_i pi表示第 i i i个状态的概率,最后第 k k k个状态的概率可以通过 1 − ∑ i = 1 k p i \displaystyle1-\sum_{i=1}^kp_i 1i=1kpi给出,其中 ∑ i = 1 k p i ≤ 1 \displaystyle\sum_{i=1}^kp_i\le1 i=1kpi1
  Multinoulli分布经常用来表示对象分类的分布,因此通常不需要计算该分布的期望和方差。

8.4 高斯分布(正态分布) N ( x ; μ , σ 2 ) N(x;\mu,\sigma^2) N(x;μ,σ2)

  高斯分布的概率密度函数为:
N ( x ; μ , σ 2 ) = 1 2 π σ 2 e x p ( − ( x − μ ) 2 2 σ 2 ) . N(x;\mu,\sigma^2)=\sqrt{\frac{1}{2\pi\sigma^2}}exp\left(-\frac{(x-\mu)^2}{2\sigma^2}\right). N(x;μ,σ2)=2πσ21 exp(2σ2(xμ)2).
  高斯分布的概率密度函数如下图所示。高斯分布由两个参数控制, μ ∈ R \mu\in \mathbb{R} μR σ ∈ ( 0 , ∞ ) \sigma\in(0, \infty) σ(0,),概率密度函数的峰值在 x = μ x=\mu x=μ处取到。
  另一种更高效的参数化分布的方式是使用 β ∈ ( 0 , ∞ ) \beta\in(0, \infty) β(0,)来控制分布的精度:
N ( x ; μ , β − 1 ) = β 2 π e x p ( − β 2 ( x − μ ) 2 ) N(x;\mu,\beta^{-1})=\sqrt{\frac{\beta}{2\pi}}exp\left(-\frac{\beta}{2}(x-\mu)^2\right) N(x;μ,β1)=2πβ exp(2β(xμ)2)
在这里插入图片描述
  期望:
E ( x ) = ∫ − ∞ ∞ 1 2 π σ 2 e x p ( − ( x − μ ) 2 2 σ 2 ) x d x = ∫ − ∞ ∞ 1 2 π σ 2 e x p ( − y 2 2 ) ( μ + σ y ) σ d y ( 换元 y = x − μ σ ) = ∫ − ∞ ∞ 1 2 π e x p ( − y 2 2 ) ( μ + σ y ) d y = σ ∫ − ∞ ∞ y 1 2 π e x p ( − y 2 2 ) d y + μ ∫ − ∞ ∞ 1 2 π e x p ( − y 2 2 ) d y \begin{aligned}E(x)&=\int_{-\infty}^{\infty}\sqrt{\frac{1}{2\pi\sigma^2}}exp\left(-\frac{(x-\mu)^2}{2\sigma^2}\right)xdx\\ &=\int_{-\infty}^{\infty}\sqrt{\frac{1}{2\pi\sigma^2}}exp\left(-\frac{y^2}{2}\right)(\mu+\sigma y)\sigma dy(换元y=\frac{x-\mu}{\sigma})\\ &=\int_{-\infty}^{\infty}\sqrt{\frac{1}{2\pi}}exp\left(-\frac{y^2}{2}\right)(\mu+\sigma y)dy\\ &=\sigma\int_{-\infty}^{\infty}y\sqrt{\frac{1}{2\pi}}exp\left(-\frac{y^2}{2}\right)dy+\mu\int_{-\infty}^{\infty}\sqrt{\frac{1}{2\pi}}exp\left(-\frac{y^2}{2}\right)dy\end{aligned} E(x)=2πσ21 exp(2σ2(xμ)2)xdx=2πσ21 exp(2y2)(μ+σy)σdy(换元y=σxμ)=2π1 exp(2y2)(μ+σy)dy=σy2π1 exp(2y2)dy+μ2π1 exp(2y2)dy
其中 ∫ − ∞ ∞ y 1 2 π e x p ( − y 2 2 ) d y \displaystyle\int_{-\infty}^{\infty}y\sqrt{\frac{1}{2\pi}}exp(-\frac{y^2}{2})dy y2π1 exp(2y2)dy是奇函数在对称区间上的积分,结果为0, ∫ − ∞ ∞ 1 2 π e x p ( − y 2 2 ) d y \displaystyle\int_{-\infty}^{\infty}\sqrt{\frac{1}{2\pi}}exp(-\frac{y^2}{2})dy 2π1 exp(2y2)dy是标准正态分布 N ( x ; 0 , 1 ) N(x;0,1) N(x;0,1)的总概率,结果为1。因此期望 E ( x ) = σ × 0 + μ × 1 = μ . E(x)=\sigma\times0+\mu\times1=\mu. E(x)=σ×0+μ×1=μ.
  方差:
V a r ( x ) = E [ ( x − E ( x ) ) 2 ] = E [ ( x − μ ) 2 ] = ∫ − ∞ ∞ 1 2 π σ 2 e x p ( − ( x − μ ) 2 2 σ 2 ) ( x − μ ) 2 d x = ∫ − ∞ ∞ 1 2 π e x p ( − y 2 2 ) σ 2 y 2 d y ( 换元 y = x − μ σ ) = σ 2 1 2 π ∫ − ∞ ∞ y 2 e x p ( − y 2 2 ) d y . 令 I = ∫ − ∞ ∞ y 2 e x p ( − y 2 2 ) d y I 2 = ( ∫ − ∞ ∞ y 2 e x p ( − y 2 2 ) d y ) 2 = ∫ − ∞ ∞ y 1 2 e x p ( − y 1 2 2 ) d y 1 ∫ − ∞ ∞ y 2 2 e x p ( − y 2 2 2 ) d y 2 = ∫ − ∞ ∞ ∫ − ∞ ∞ y 1 2 y 2 2 e x p ( − y 1 2 + y 2 2 2 ) d y 1 d y 2 = ∫ 0 2 π ∫ 0 ∞ r 4 c o s 2 ( θ ) s i n 2 ( θ ) e x p ( − r 2 2 ) r d r d θ ( 换元 y 1 = r c o s ( θ ) , y 2 = r s i n ( θ ) ) = ∫ 0 2 π ∫ 0 − ∞ − c o s 2 ( θ ) s i n 2 ( θ ) 4 x 2 e x p ( x ) d x d θ ( 换元 x = − r 2 2 ) = ∫ 0 2 π c o s 2 ( θ ) s i n 2 ( θ ) d θ ∫ − ∞ 0 4 x 2 e x p ( x ) d x = ∫ 0 2 π s i n 2 ( θ ) − s i n 4 ( θ ) d θ ( 点火公式 ) × 4 ( x 2 − 2 x + 2 ) e x ∣ − ∞ 0 = 4 × ( 1 2 × π 2 − 3 4 × 1 2 × π 2 ) × 8 = 2 π . V a r ( x ) = σ 2 1 2 π I = σ 2 1 2 π 2 π = σ 2 . \begin{aligned}Var(x)&=E[(x-E(x))^2]\\ &=E[(x-\mu)^2]\\ &=\int_{-\infty}^{\infty}\sqrt{\frac{1}{2\pi\sigma^2}}exp\left(-\frac{(x-\mu)^2}{2\sigma^2}\right)(x-\mu)^2dx\\ &=\int_{-\infty}^{\infty}\sqrt{\frac{1}{2\pi}}exp\left(-\frac{y^2}{2}\right)\sigma^2y^2dy(换元y=\frac{x-\mu}{\sigma})\\ &=\sigma^2\sqrt{\frac{1}{2\pi}}\int_{-\infty}^{\infty}y^2exp\left(-\frac{y^2}{2}\right)dy.\\ 令I&=\int_{-\infty}^{\infty}y^2exp\left(-\frac{y^2}{2}\right)dy\\ I^2&=(\int_{-\infty}^{\infty}y^2exp\left(-\frac{y^2}{2}\right)dy)^2\\ &=\int_{-\infty}^{\infty}y_1^2exp\left(-\frac{y_1^2}{2}\right)dy_1\int_{-\infty}^{\infty}y_2^2exp\left(-\frac{y_2^2}{2}\right)dy_2\\ &=\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}y_1^2y_2^2exp\left(-\frac{y_1^2+y_2^2}{2}\right)dy_1dy_2\\ &=\int_0^{2\pi}\int_0^{\infty} r^4cos^2(\theta)sin^2(\theta)exp\left(-\frac{r^2}{2}\right)rdrd\theta(换元y_1=rcos(\theta),y_2=rsin(\theta))\\ &=\int_0^{2\pi}\int_0^{-\infty}-cos^2(\theta)sin^2(\theta)4x^2exp(x)dxd\theta(换元x=-\frac{r^2}{2})\\ &=\int_0^{2\pi}cos^2(\theta)sin^2(\theta) d\theta\int_{-\infty}^04x^2exp(x)dx\\ &=\int_0^{2\pi} sin^2(\theta)-sin^4(\theta)d\theta(点火公式)\times\left. 4(x^2-2x+2)e^x\right|_{-\infty}^0\\ &=4\times(\frac{1}{2}\times\frac{\pi}{2}-\frac{3}{4}\times\frac{1}{2}\times \frac{\pi}{2})\times8\\ &=2\pi.\\ Var(x)&=\sigma^2\sqrt{\frac{1}{2\pi}}I=\sigma^2\sqrt{\frac{1}{2\pi}}\sqrt{2\pi}=\sigma^2. \end{aligned} Var(x)II2Var(x)=E[(xE(x))2]=E[(xμ)2]=2πσ21 exp(2σ2(xμ)2)(xμ)2dx=2π1 exp(2y2)σ2y2dy(换元y=σxμ)=σ22π1 y2exp(2y2)dy.=y2exp(2y2)dy=(y2exp(2y2)dy)2=y12exp(2y12)dy1y22exp(2y22)dy2=y12y22exp(2y12+y22)dy1dy2=02π0r4cos2(θ)sin2(θ)exp(2r2)rdrdθ(换元y1=rcos(θ),y2=rsin(θ))=02π0cos2(θ)sin2(θ)4x2exp(x)dxdθ(换元x=2r2)=02πcos2(θ)sin2(θ)dθ04x2exp(x)dx=02πsin2(θ)sin4(θ)dθ(点火公式)×4(x22x+2)ex 0=4×(21×2π43×21×2π)×8=2π.=σ22π1 I=σ22π1 2π =σ2.
  采用正态分布在很多应用中都是一个明智的选择:
  1. 我们想要建模的很多分布的真实情况是很接近正态分布的。中心极限定理说明了很多独立随机变量的和近似服从正态分布。
  2. 在具有相同方差的所有可能的概率分布中,正态分布在实数上具有最大的不确定性。因此正态分布是对模型加入的先验知识量最少的分布。

8.5 多维正态分布

  正态分布可以推广到 R n \mathbb{R}^n Rn空间,这种情况下称为多维正态分布,它的参数是一个正定对称矩阵 Σ \Sigma Σ
N ( x ; μ , Σ ) = 1 ( 2 π ) n ∣ Σ ∣ e x p ( − 1 2 ( x − μ ) T Σ − 1 ( x − μ ) ) . N(x;\mu,\Sigma)=\sqrt{\frac{1}{(2\pi)^n|\Sigma|}}exp\left(-\frac{1}{2}(x-\mu)^T\Sigma^{-1}(x-\mu)\right). N(x;μ,Σ)=(2π)n∣Σ∣1 exp(21(xμ)TΣ1(xμ)).
其中参数 μ \mu μ是向量,表示分布的均值, Σ \Sigma Σ是分布的协方差矩阵。
  一个高效化的参数化分布的方式:
N ( x ; μ , β − 1 ) = ∣ β ∣ ( 2 π ) n e x p ( − 1 2 ( x − μ ) T β ( x − μ ) ) . N(x;\mu, \beta^{-1})=\sqrt{\frac{|\beta|}{(2\pi)^n}}exp\left(-\frac{1}{2}(x-\mu)^T\beta(x-\mu)\right). N(x;μ,β1)=(2π)nβ exp(21(xμ)Tβ(xμ)).

8.6 指数分布

  指数分布:
p ( x ; λ ) = λ I ( x ≥ 0 ) e x p ( − λ x ) . \mathrm{p}(x;\lambda)=\lambda I(x\ge0)exp(-\lambda x). p(x;λ)=λI(x0)exp(λx).
其中 I ( x ≥ 0 ) I(x\ge0) I(x0)是指示函数,当 x < 0 x\lt0 x<0时,值为0,否则为1。

8.7 Laplace分布

  Laplace分布:
L a p l a c e ( x ; μ , γ ) = 1 2 γ e x p ( − ∣ x − μ ∣ γ ) . Laplace(x;\mu,\gamma)=\frac{1}{2\gamma}exp(-\frac{|x-\mu|}{\gamma}). Laplace(x;μ,γ)=2γ1exp(γxμ).

8.8 Dirac分布

  Dirac分布:
p ( x ) = δ ( x − μ ) . \mathrm{p}(x)=\delta(x-\mu). p(x)=δ(xμ).
Dirac分布在除了 x = μ x=\mu x=μ以外的所有点的值为0,但是积分为1。

8.9 经验分布

  经验分布:
p ^ ( x ) = 1 m ∑ i = 1 m δ ( x − x ( i ) ) . \mathrm{\hat{p}}(x)=\frac{1}{m}\sum_{i=1}^m\delta(x-x^{(i)}). p^(x)=m1i=1mδ(xx(i)).
经验分布将概率密度 1 m \frac{1}{m} m1赋给 m m m个点 x ( 1 ) x^{(1)} x(1) ⋯ \cdots x ( m ) x^{(m)} x(m)中的每一个,这些点是给定的数据集或者采样的集合。只有在定义连续型随机变量的经验分布时, δ ( x ) \delta(x) δ(x)是必要的;对于离散型随机变量,经验分布可以被定义为一个Multinoulli分布,对于每一个可能的输入,其概率可以简单地设为在训练集上那个输入值的经验频率。

9. 贝叶斯规则

P ( x y ) = P ( x ∣ y ) P ( y ) = P ( y ∣ x ) P ( x ) \mathrm{P(xy)}=\mathrm{P(x|y)P(y)}=\mathrm{P(y|x)P(x)} P(xy)=P(x∣y)P(y)=P(y∣x)P(x)
  贝叶斯公式:
P ( x ∣ y ) = P ( y ∣ x ) P ( x ) P ( y ) \mathrm{P(x|y)}=\frac{\mathrm{P(y|x)P(x)}}{\mathrm{P(y)}} P(x∣y)=P(y)P(y∣x)P(x)
此外 P ( y ) \mathrm{P(y)} P(y)通常使用 P ( y ) = ∑ x P ( y ∣ x ) P ( x ) \displaystyle\mathrm{P(y)}=\sum_{x}\mathrm{P(y|}x)\mathrm{P(}x) P(y)=xP(y∣x)P(x)来计算。

10. 部分信息论

10.1 自信息和香农熵

  信息论的基本想法是一个不太可能的事情居然发生了,要比一个非常可能的事件发生,能提供更多的信息。我们想要通过这种基本想法来量化信息,特别是:
  1. 非常可能发生的事件信息量要比较少,并且极端情况下,确保能够发生的事件应该没有信息量。
  2. 较不可能发生的事件具有更高的信息量。
  3. 独立事件应具有增量的信息。例如,投掷的硬币两次正面向上传递的信息量,应该是投掷一次硬币正面朝上的信息量的两倍。
  为了满足上述三个性质,定义一个事件 x = x \mathrm{x}=x x=x的自信息为 I ( x ) = − log ⁡ P ( x ) I(x)=-\log\mathrm{P(}x) I(x)=logP(x),其中 log ⁡ \log log表示自然对数。自信息的单位是奈特,1奈特是以 1 e \displaystyle\frac{1}{e} e1的概率观测到一个事件时获得的信息量。
  当 x \mathrm{x} x是连续的,我们使用类似的关于信息的定义,但是有些来源于离散形式的性质就丢失了。例如,一个具有单位密度的事件信息量仍然为零,但是不能保证它一定发生。
  自信息只处理单个的输出。可以用香农熵来对整个概率分布中的不确定性总量进行量化:
H ( x ) = E x ∼ P [ I ( x ) ] = − E x ∼ P [ log ⁡ P ( x ) ] . H(\mathrm{x})=E_{\mathrm{x\sim P}}[I(x)]=-E_{\mathrm{x\sim P}}[\log \mathrm{P}(x)]. H(x)=ExP[I(x)]=ExP[logP(x)].
也记作 H ( P ) H(\mathrm{P}) H(P)。一个分布的香农熵是指遵循这个分布的事件所产生的期望信息总量。它给出了对依据概率分布 P \mathrm{P} P生成的符号进行编码所需的比特数在平均意义上的下界( log ⁡ 是以 2 为底时,单位为比特 \log是以2为底时,单位为比特 log是以2为底时,单位为比特)。那些接近确定性的分布具有较低的墒;那些接近均匀分布的概率分布具有较高的墒。当 x \mathrm{x} x是连续的,香农熵称为微分墒。
  计算Bernoulli分布的香农熵:
H ( P ) = − E [ log ⁡ P ( x ) ] = − E [ l o g ( ψ x ( 1 − ψ ) 1 − x ) ] = − E [ x log ⁡ ψ + ( 1 − x ) log ⁡ ( 1 − ψ ) ] = − E ( x ) log ⁡ ψ − ( 1 − E ( x ) ) log ⁡ ( 1 − ψ ) = − ψ log ⁡ ψ − ( 1 − ψ ) log ⁡ ( 1 − ψ ) . \begin{aligned}H(\mathrm{P})&=-E[\log \mathrm{P}(x)]\\ &=-E[log(\psi^x(1-\psi)^{1-x})]\\ &=-E[x\log\psi+(1-x)\log(1-\psi)]\\ &=-E(x)\log\psi-(1-E(x))\log(1-\psi)\\ &=-\psi\log\psi-(1-\psi)\log(1-\psi)\end{aligned}. H(P)=E[logP(x)]=E[log(ψx(1ψ)1x)]=E[xlogψ+(1x)log(1ψ)]=E(x)logψ(1E(x))log(1ψ)=ψlogψ(1ψ)log(1ψ).
  下图中水平轴是 x x x,表示二值随机变量等于1的概率,当 x x x接近0时,分布几乎是确定的,因为随机变量总等于0;当 x x x接近1时,分布也几乎是确定的,因为随机变量总等于1;当 x = 0.5 x=0.5 x=0.5时,熵是最大的,因为分布在两个结果上是均匀的。
在这里插入图片描述

10.2 KL散度和交叉墒

  如果对于同一个随机变量 x \mathrm{x} x有两个单独的概率分布 P ( x ) \mathrm{P(x)} P(x) Q ( x ) \mathrm{Q(x)} Q(x),可以使用KL散度来衡量两个分布的差异:
D K L ( P ∣ ∣ Q ) = E x ∼ P [ log ⁡ P ( x ) Q ( x ) ] = E x ∼ P [ log ⁡ P ( x ) − log ⁡ Q ( x ) ] . D_{KL}(\mathrm{P||Q})=E_{\mathrm{x\sim P}}[\log \frac{\mathrm{P(}x)}{\mathrm{Q(}x)}]=E_{\mathrm{x\sim P}}[\log \mathrm{P(}x)-\log \mathrm{Q(}x)]. DKL(P∣∣Q)=ExP[logQ(x)P(x)]=ExP[logP(x)logQ(x)].
  在离散型变量的情况下,KL散度衡量的是,当我们使用一种被设计成能够使得概率分布 Q \mathrm{Q} Q产生的消息的长度最小的编码,发送包含由概率分布 P \mathrm{P} P产生的符号的信息时,所需要的额外信息量。
  性质:
  1. 非负性。
  2. KL散度等于0,当且仅当 P \mathrm{P} P Q \mathrm{Q} Q在离散型变量的情况下是相同的分布,或在连续型变量的情况下是“几乎处处”相同的。
  3. 不对称性: D K L ( P ∣ ∣ Q ) ≠ D K L ( Q ∣ ∣ P ) D_{KL}(\mathrm{P||Q})\ne D_{KL}(\mathrm{Q||P}) DKL(P∣∣Q)=DKL(Q∣∣P)
  一个和KL散度密切联系的量是交叉熵:
H ( P , Q ) = H ( P ) + D K L ( P ∣ ∣ Q ) = − E x ∼ P [ log ⁡ Q ( x ) ] . H(\mathrm{P, Q})=H(\mathrm{P})+D_{KL}(\mathrm{P||Q})=-E_{\mathrm{x\sim P}}[\log \mathrm{Q(}x)]. H(P,Q)=H(P)+DKL(P∣∣Q)=ExP[logQ(x)].
针对 Q \mathrm{Q} Q最小化交叉熵等于最小化KL散度。
  当计算时,遇到 0 log ⁡ 0 0\log0 0log0处理为 lim ⁡ x → 0 x log ⁡ x = 0 \lim\limits_{x\rightarrow 0}x\log x=0 x0limxlogx=0

参考

[美]伊恩·古德费洛(lan Goodfellow)[加]约书亚·本吉奥(Yoshua Bengio)[加]亚伦·库维尔(Aaron Courville) 深度学习(中文翻译版)


网站公告

今日签到

点亮在社区的每一天
去签到