自学内容网 自学内容网

深度学习之概率论预备知识点(3)

在深度学习中,概率论数理统计是理解许多算法背后的理论基础。这些知识在处理不确定性、估计模型参数、理解数据分布等方面非常关键

1、概率

一种用来描述随机事件发生的可能性的数字度量,表示某一事件发生的可能性。

概率并不客观存在,是一种不确定性的度量。它的范围在【0,1】之间,0表示不可能发生,1表示必然发生。

概率公式:P(A) = 事件A发生的次数/总事件数

在深度学习中,概率用于表示模型预测某一结果的可能性。例如,分类问题中,输出为某一类别的概率。

2、概率和深度学习

概率论在深度学习中的应用广泛,它帮助我们理解模型的不确定性、推理和决策过程。

概率可以用来表示模型的准确率。概率可以用来描述模型的不确定性。概率可以作为模型损失的度量。

概率在深度学习中的作用包括:

  • 模型的不确定性:如在贝叶斯神经网络中,权重是随机变量,通过概率表示模型的不确定性。
  • 损失函数的定义:如交叉熵损失函数,是基于概率的度量。
  • 生成模型:如变分自编码器(VAE)和生成对抗网络(GANs)都基于概率理论来生成新数据。

3、概率的研究

3.1 频率学派(Frequentist Probability)

频率学派定义概率为长期重复试验中事件发生的相对频率,即在无限次试验中,某事件发生的频率会趋近于某个稳定值。因此概率计算公式

P_{n}(x) = \frac{n_{x}}{n},即P(x) = \lim_{n \to \infty } P_{n} (x)   注:n是实验的总次数

3.1.1 典型应用:
  • 大规模的实验数据,如质量控制中的产品抽样检验、医学研究中的临床试验等。
3.1.2 不足之处:
  • 依赖大量实验:频率学派的定义依赖于无限次的重复实验。实际中,我们往往只能进行有限次实验,尤其在某些领域(如医学、天文),难以进行大量实验,这使得频率定义的概率无法准确反映现实情况。
  • 不能处理单次事件:频率学派无法为一次性事件(如某个人是否会罹患某种疾病)提供合理的概率估计。这种情况使得频率学派在许多实际场景中无法给出明确答案。
  • 不能处理主观信念:频率学派仅依赖于观察数据,无法量化基于个人信念或历史经验的主观判断。这在某些领域(如预测未来事件)表现出局限性。

3.2 古典学派(Classical Probability)-- 平均主义的倡导者

无法掌握先验知识的情况下,未知事件发生的概率都是相等的。

古典学派的概率理论起源于17世纪,基于对称性和等可能性概念进行推导。它的基本思想是:如果一个实验的所有可能结果数量有限,并且这些结果的发生机会是均等的,那么事件A的概率可以定义为 P(x) = \frac{m}{n}

3.2.1 典型应用:
  • 抛硬币、掷骰子等简单实验,其中所有结果都是等可能的。
3.2.2 不足之处:
  • 依赖于等可能性假设:古典学派要求所有结果的发生是等可能的,但在实际问题中,等可能性常常难以实现。例如,无法保证现实生活中的每个事件都是等概率的。
  • 不适合复杂问题:对于较为复杂的现象(如金融市场或生物实验),结果往往不具有对称性和等可能性,古典学派的适用性有限。
  • 主观性限制:古典学派的概率值只能用于那些有明确对称结构的情况,缺乏普遍性。

3.3 贝叶斯派(Bayesian Probability) -- 探索未知世界的观察者

频率学派认为概率是随机性,贝叶斯派认为概率是不确定性的 。

贝叶斯学派将概率视为一种对不确定事件的主观信念或程度的度量,概率可以根据新的证据进行更新。贝叶斯定理是贝叶斯学派的核心,表示为:P(A|B) = \frac{P(B|A)P(A)}{P(B)}

  • P(A∣B) 是在B发生的情况下A发生的概率,称为A的后验概率。
  • P(B∣A) 是在A发生的情况下B发生的概率。
  • P(A) 是A的先验概率,即不考虑B的情况下A发生的概率。
  • P(B) 是B的先验概率,即不考虑A的情况下B发生的概率。

贝叶斯学派允许通过新的证据不断更新概率,这使得它在处理动态和不确定性方面表现优异。

3.3.1 典型应用:
  • 贝叶斯分类器:如朴素贝叶斯分类器,用于文本分类、垃圾邮件过滤等。
  • 贝叶斯神经网络:在深度学习中用于建模参数的不确定性。
  • 推理与决策:贝叶斯方法广泛应用于医疗诊断、金融预测和科学推理。
3.3.2 不足之处:
  • 先验分布的主观性:贝叶斯学派需要假设一个先验概率,这通常基于经验或主观判断,因此在某些情况下可能存在人为偏差。如果先验信息不准确,后验结果可能会有偏差。
  • 计算复杂性:贝叶斯方法在处理复杂模型时计算量很大,尤其是当需要通过积分计算后验概率时,通常需要使用近似方法(如蒙特卡洛模拟),增加了计算难度。
  • 数据依赖性:贝叶斯方法在小样本条件下可能效果不佳,因为当数据不足时,后验概率过于依赖主观先验,导致推断不准确。

3.4 各学派的优缺点对比

学派优点缺点适用场景
古典学派简单易懂,适用于对称性强、结果均等可能的情况仅适用于等可能事件,无法处理复杂问题或主观概率

适合简单且对称的实验,

但在复杂问题中力不从心

频率学派基于实验数据,提供长期稳定的概率估计无法处理一次性事件,依赖大量实验,不能处理主观信念

适用于大规模实验数据,

但在处理小样本或一次性事件时效果不佳

贝叶斯学派允许通过新证据更新概率,能够处理主观信念和先验知识,灵活性强先验分布的选择带有主观性,复杂模型计算复杂度高,可能对小样本数据过于依赖

以其灵活性和动态更新能力,成为不确定性推断中的强大工具,

但也因其依赖先验分布和计算复杂性而具有一定挑战性

4、概率论和数理统计

4.1 区别和联系

  • 概率论研究的是一次事件的结果,即随机事件的发生规律
  • 数理统计研究的是总体数据的情况,即如何通过观察数据对随机现象进行推断。
  • 概率论数理统计基础概率论中的知识,如分布、联合概率等,是数理统计中推导和估计的基础,数理统计则是根据观测的数据反向思考数据生成的过程
方面概率论数理统计
研究对象随机现象及其规律从数据中推断未知参数或现象
核心问题计算事件发生的概率从样本数据推断总体特征,估计参数
工具随机变量、概率分布、联合概率、条件概率等假设检验、点估计、区间估计、回归分析等
应用领域主要用于理论分析主要用于实际数据分析,尤其是在实验设计和数据分析中
关联概率论为数理统计提供理论基础数理统计基于概率论进行推断

5、事件(Event)

  • 事件:指随机试验结果的一个集合, 例如,在掷一枚骰子的试验中,“出现偶数”就是一个事件,它包含了{2, 4, 6}这三个可能的结果。
  • 随机事件(Random Event):指一次或多次随机实验的结果,即在一次实验中可能发生也可能不发生的事件。比如抛硬币,出现正面是随机事件。
  • 依赖事件(Dependent Events):指的是事件的发生受其他事件的影响,。例如,从不放回抽卡中,抽到一张特定卡的概率会随着已抽卡变化。用条件概率表示同时发生的概率:

        P(A\cap B) = P(A)* P(B|A)

  P(B|A) 表示在事件A已经发生的条件下,事件B发生的概率

  • 独立事件(Independent Events):指的是事件的发生与其他事件无关,例如,抛两次硬币,第一次结果不影响第二次。 P(A\cap B) = P(A) * P(B)

6、随机变量

随机变量是定义在样本空间上的函数,用来表示每个实验结果的数值。分为离散型和连续型。

7、概率分布

概率分布用来描述随机变量的分布情况。

在离散型分布中,通过概率质量函数(PMF)描述每个值的概率;

在连续型分布中,我们通过概率密度函数(PDF)描述概率的密度。

  • 离散型分布

定义:随机变量只能取有限个或可数个值,其概率通过概率质量函数(PMF)来表示。

常见的离散型分布

  • 二项分布:描述了n次独立的伯努利试验中成功的次数。
  • 泊松分布:用于描述在单位时间内某个事件发生的次数。
  • 连续型分布

定义:随机变量可以取无限个值,其概率通过概率密度函数(PDF)来表示。

常见的连续型分布

  • 均匀分布:所有值的概率密度相同。
  • 正态分布:又称为高斯分布,描述自然界中广泛存在的随机现象。

 正态分布的概率密度函数为:

f(x) = (\frac{1}{\sqrt{2\pi \sigma ^2}})exp(- \frac{x-\mu ^2}{2\sigma ^2})  ( 其中,μ是均值,σ^2是方差)

8、概率密度(Probability density

一种描述概率分布的函数,表示在某一区间内取一个特定值的概率

概率=概率密度曲线下的面积

9、正态分布(Normal Distribution)

也称为高斯分布(Gaussian Distribution)。

正态分布由两个参数完全描述:均值(mean)𝜇 和方差(variance)𝜎^2。均值决定了分布的中心位置,而方差则决定了分布的宽度。正态分布概率密度函数:

f(x) = (\frac{1}{\sqrt{2\pi \sigma ^2}})e^{(- \frac{x-\mu ^2}{2\sigma ^2})}  ,其中 𝑒e 是自然对数的底数,大约等于 2.71828

正态分布的性质

  1. 对称性:正态分布是以均值为中心的对称分布。
  2. 峰度:标准正态分布(均值为 0,方差为 1)具有最高的峰度(kurtosis),其峰度值为 3。
  3. 尾部:正态分布有轻尾特性,即极端值出现的概率相对较小。
  4. 68-95-99.7规则(经验法则):对于任何均值和方差的正态分布,大约 68% 的值落在均值的一个标准差内,大约 95% 的值落在均值的两个标准差内,大约 99.7% 的值落在均值的三个标准差内。

10、联合概率和条件概率

  • 联合概率:多个事件同时发生的概率,对于两个事件A和B,联合概率记为 P(A\cap B)
  • 条件概率:在某个条件下发生某个事件的概率,记为P(A|B) = \frac{P(A\cap B)}{P(B)}

条件概率在深度学习中的应用包括朴素贝叶斯分类器,它假设每个特征是条件独立的。

联合概率和条件概率的转化:

P(A \cap B) = P(A|B)P(B)  即  P(A|B) = \frac{P(A \cap B)}{P(B)}

11、贝叶斯定理

表明在已知条件概率的情况下,可以推导出联合概率。常用于,根据已知信息预测未知信息的场景

P(A|B) = \frac{P(B|A)P(A)}{P(B)}

贝叶斯定理在深度学习中的应用之一是贝叶斯神经网络。

12、先验(Prior) 后验(Posterior)

  • 先验概率:在观测到数据之前,对参数的初始信念。

    反映了我们对模型参数或隐变量在看到数据之前的信念。它是我们基于已有知识对参数 𝜃θ 的初始估计。在数学上,可以表示为 𝑃(𝜃)。

  • 后验概率:根据观测数据,利用贝叶斯定理更新后的概率分布。

13、极大似然估计(Maximum Likelihood Estimation MLE)

利用已知的样本结果,反推最有可能导致这样结果的参数值,即找到参数的最大概率取值

定义:假设我们有一组观测数据 D =\left \{ x_{1},x_{2}...,x_{n} \right \},并且假设数据是由某个参数化的概率分布

P(X|\theta) 生成的,这里的 θ 表示未知的参数向量。

我们的目标是找到 θ 的最优估计值 \hat{\theta },使得观测数据 D 在该参数下的概率最大。

为了实现这个目标,我们可以定义似然函数 𝐿(𝜃∣𝐷) 为给定参数 θ 下数据 D 的联合概率:

L(\theta | D) = P(D|\theta)=\prod_{i=1}^{n}P(x_{i}|\theta)

这里假设每个观测 x_{i}​ 是独立同分布(i.i.d.)的。由于直接计算联合概率可能不方便,通常会取对数来简化乘积运算,并且对数函数是单调递增的,因此极大化似然等价于极大化对数似然:

logL(\theta | D) = \sum_{i=1}^{n}logP(x_{i}|\theta )

然后,我们寻找参数 θ 的值,以最大化上述对数似然函数。即求解:

\hat{\theta }=argmax\pounds (\theta |D)

在深度学习中的应用

在深度学习中,模型通常是一个复杂的神经网络,其中参数 𝜃θ 包括权重和偏置项。训练一个神经网络的目标就是调整这些参数,以便正确地映射输入数据到输出数据。使用 MLE 作为训练目标意味着我们希望找到一组参数,使得网络对于训练集上的所有样本都能产生正确的预测概率分布。

例如,在分类任务中,我们可能会使用softmax层来将模型的输出转换为类别概率分布。在这种情况下,我们通常使用交叉熵损失(cross-entropy loss),它是对数似然的一种形式,来度量模型的预测与实际标签之间的差异,并通过最小化这个损失来训练模型。

总之,极大似然估计是一种强大的工具,可以帮助我们在机器学习和深度学习中找到合适的模型参数。


原文地址:https://blog.csdn.net/u013985879/article/details/142307196

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!