李宏毅2020机器学习笔记补充(2)

发布于:2022-12-06 ⋅ 阅读:(735) ⋅ 点赞:(0)

概率论-贝叶斯定理 参考:通俗地理解贝叶斯公式(定理)

在统计学中有两个较大的分支:一个是“频率”,另一个便是“贝叶斯”,“贝叶斯”主要利用了“相关性”一词。通俗易懂的方式描述“贝叶斯定理”:通常,事件 A 在事件 B 发生的条件下与事件 B 在事件 A 发生的条件下,它们两者的概率并不相同,但是它们两者之间存在一定的相关性,并具有以下公式(称之为“贝叶斯公式”):

P\left ( B|A \right ) = \frac{P\left ( A|B \right )P\left ( B \right )}{P\left ( A \right )}    

  • P(A) 表示 A 出现的概率。
  • P(A|B) 是条件概率的符号,表示事件 A 发生的条件下,事件 B 发生的概率,条件概率是“贝叶斯公式”的关键所在,它也被称为“似然度”。
  • P(B|A) 是条件概率的符号,表示事件 B 发生的条件下,事件 A 发生的概率,这个计算结果也被称为“后验概率”。

两个本来相互独立的事件,发生了某种“相关性”,此时就可以通过“贝叶斯公式”实现预测。如果P(B|A)的值越大,说明一旦发生了 A,B 就越可能发生。两者可能存在较高的相关性。

先验概率:是指根据以往经验和分析得到的概率,已知

后验概率:是指通过调查或其它方式获取新的附加信息,利用贝叶斯公式对先验概率进行修正而后得到的概率

朴素贝叶斯算法:假定给定目标值时属性之间相互条件独立

在给定类别为y的情况下:

P\left ( X|Y=y \right ) = \prod_{i=1}^{d} P\left ( x_i|Y=y \right )    

属于类别y_i的朴素贝叶斯计算可以表示为

P\left ( y_i|x_1,x_2,\cdot \cdot \cdot ,x_d \right ) =\frac{P\left ( y_i \right )\prod_{j=1}^{d} P\left ( x_j|y_i \right ) }{\prod_{j=1}^{d} P\left ( x_j \right )}

极大似然估计:极大似然估计(Maximum likelihood estimation)_大道上的头陀的博客-CSDN博客_极大似然估计

关键:利用已知的样本结果信息,反推最大概率导致这些样本结果出现的模型参数值。

离散型期望:E(X)=\sum_{k=1}^{\infty}x_kp_k,x_k为离散型随机变量X的取值,p_k为X对应取值的概率

----统计描述中,总体方差计算公式,X为变量,\mu为总体均值,N为总体例数,

\sigma ^2=\frac{\sum (X-\mu )^2}{N}

样本方差n-1\rightarrow N

----离散型方差variance:“随机变量值与其期望值之差的平方”的期望值,方差越大,离散程度越大

D(X)=E((X-E(X))^2)=E(X^2)-E^2(X)

----均方差/标准差:\sigma = \sqrt{D(x)}

----协方差covariance:用于衡量两个变量的总体误差,XY独立,协方差为0

Cov(X,Y)=E(X-E(X))E(Y-E(Y))=E(XY)-E(X)E(Y)

Cov(X,Y)=\frac{\sum_{i=1}^{n}(X_i-\overline{X})(Y_i-\overline{Y})}{n-1}

什么是协方差,怎么计算?为什么需要协方差?_Nani_xiao的博客-CSDN博客_协方差

本文含有隐藏内容,请 开通VIP 后查看

网站公告

今日签到

点亮在社区的每一天
去签到