自学内容网 自学内容网

《机器学习》读书笔记:总结“第5章 神经网络”中的概念

💠神经网络(neural network)

神经网络是由具有适应性的简单单元组成的广泛并行互联的网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应。

神经网络中最基本的成分是 神经元(neuron / unit),即上述定义的 “简单单元”。

💠神经元

在生物神经网络中,每个神经元与其他神经元相连,当它“兴奋”时,就会向相连的神经元发送化学物质,从而改变这些神经元内的电位;如果某神经元的电位超过了一个 “阈值”(threshold / bias), 那么它就会被激活,即“兴奋”起来,向其他神经元发送化学物质。

💠M-P 神经元模型

[McCulloch and Pitts, 1943] 将上述情形抽象为 “M-P 神经元模型” :
在这里插入图片描述
在这个模型中, 神经元接收到来自 n 个其他神经元传递过来的输入信号,这些输入信号通过带权重的连接(connection)进行传递,神经元接收到的总输入值将与神经元的阈值进行比较,然后通过 “激活函数” (activation function) 处理以产生神经元的输出。

💠激活函数:阶跃函数

在这里插入图片描述

💠激活函数:Sigmoid函数(S形函数)

由于阶跃函数具有 不连续不光滑 等不太好的性质。因此实际常用Sigmoid函数作为激活函数:
在这里插入图片描述

💠感知机(perceptron)

感知机由两层神经元组成:

  • 输入层:接收外界输入信号后传递给输出层。
  • 输出层:一个 M-P神经元。

在这里插入图片描述

感知机表示 “与”、“或”、“非” 运算:

感知机可以容易地实现 运算:
对于 y = f ( ∑ i ω i x i − θ ) y=f(\sum_i\omega_ix_i-\theta) y=f(iωixiθ) 且假定其中的 f f f 是阶跃函数:

要表示的逻辑运算数学表示所用的权重与阈值备注
x 1 ∧ x 2 x_1\land x_2 x1x2 ω 1 = ω 2 = 1 , θ = 2 \omega_1=\omega_2=1,\theta=2 ω1=ω2=1,θ=2仅在 x 1 = x 2 = 1 x_1=x_2=1 x1=x2=1 y = 1 y=1 y=1
x 1 ∨ x 2 x_1\lor x_2 x1x2 ω 1 = ω 2 = 1 , θ = 0.5 \omega_1=\omega_2=1,\theta=0.5 ω1=ω2=1,θ=0.5 x 1 = 1 x_1=1 x1=1 或 $ x_2=1$ 时 y = 1 y=1 y=1
¬ x 1 \lnot x_1 ¬x1 ω 1 = − 0.6 , ω 2 = 0 , θ = − 0.5 \omega_1=-0.6, \omega_2=0,\theta=-0.5 ω1=0.6,ω2=0,θ=0.5 x 1 = 1 x_1=1 x1=1 y = 0 y=0 y=0 x 1 = 0 x_1=0 x1=0 y = 1 y=1 y=1

感知机的学习

权重 ω i ( i = 1 , 2 , . . . , n ) \omega_i(i=1,2,...,n) ωi(i=1,2,...,n) 以及阈值 θ \theta θ 可通过学习得到。

阈值 θ \theta θ 可以看作是一个固定输入值为 -1.0 的 “哑结点(dummy node)”所对应的连接权重 ω n + 1 \omega_{n+1} ωn+1
即:
ω 1 ⋅ x 1 + ω 2 ⋅ x 2 + . . . + ω n ⋅ x n − θ = ω 1 ⋅ x 1 + ω 2 ⋅ x 2 + . . . + ω n ⋅ x n + ω n + 1 ⋅ ( − 1.0 ) \begin{alignedat}{3} & \omega_1 \cdot x_1+\omega_2\cdot x_2 +...+\omega_n\cdot x_n-\theta \\ =& \omega_1 \cdot x_1+\omega_2\cdot x_2 +...+\omega_n\cdot x_n+\omega_{n+1}\cdot(-1.0) \\ \end{alignedat} =ω1x1+ω2x2+...+ωnxnθω1x1+ω2x2+...+ωnxn+ωn+1(1.0)

所以,“权重和阈值的学习” 可以统一为 “权重的学习”。

感知机的学习规则非常简单,对于训练样本 ( x , y ) (\bold{x},y) (x,y) ,若当前感知机的输出为 y ^ \hat{y} y^ 则感知机这样调整:
ω i ← ω i + Δ ω i 其中 Δ ω i = η ( y − y ^ ) x i \omega_i \leftarrow \omega_i+\Delta\omega_i \\ 其中\Delta\omega_i=\eta(y-\hat{y})x_i ωiωi+Δωi其中Δωi=η(yy^)xi

其中 η ∈ ( 0 , 1 ) \eta \in(0,1) η(0,1) 称为 学习率(learning rate)。通常设置为一个小的正数比如 0.1 。

💠线性可分问题(linearly separable)

线性可分:存在一个线性超平面能分开。
比如刚才提到的 运算:
在这里插入图片描述

异或运算是非线性可分问题:
在这里插入图片描述

💠多层神经网络

感知机只拥有一层有激活函数的神经元(另一层是输入层)。其学习能力十分有限。实际上,对于 “线性可分” 问题,感知机的学习过程一定会 收敛(converge),最终求得稳定的权重值。但对于 “非线性可分” 问题,感知机的学习过程不能收敛,会发生 振荡(fluctuation),难以求得稳定的权重值。

要解决非线性可分问题,需要考虑多层神经网络。

💠隐含层(hidden layer)

输出层和输入层之间的层被称为 隐含层(hidden layer)
隐含层和输出层神经元都是拥有激活函数的神经元。

表示“异或”运算的网络

在这里插入图片描述

💠多层前馈神经网络(multi-layer feedforward neural network)

更一般的,常见的神经网络如图所示:
在这里插入图片描述
每层神经元与下层神经元全互连,神经元之间不存在同层连接,也不存在跨层连接。这样的神经网络结构通常称为 “多层前馈神经网络”。
(其中的 “前馈” 并不意味着网络中的信号不能向后传,而是指网络拓扑结构上不存在 “环” 或 “回路”)

💠误差逆传播(error BackPropagation,简称BP)算法

多层网络学习能力比单层的感知机强得多,但需要更强大的学习算法。误差逆传播(error BackPropagation,简称BP)算法就是其中最杰出的代表,它是迄今最成功的神经网络学习算法。下面解释这个算法。


给定训练集 D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x m , y m ) } D=\{(\bold{x}_1,\bold{y}_1),(\bold{x}_2,\bold{y}_2),...,(\bold{x}_m,\bold{y}_m)\} D={(x1,y1),(x2,y2),...,(xm,ym)}
每个输入示例 x k \bold{x}_k xk d d d 个属性描述,即 x k = { x 1 k , x 2 k , . . . , x d k } \bold{x}_k=\{x^k_1,x^k_2,...,x^k_d\} xk={x1k,x2k,...,xdk}
对应的每个输出示例 y k \bold{y}_k yk l l l 维实值向量,即 k i = { y 1 k , y 2 k , . . . , y l k } \bold{k}_i=\{y^k_1,y^k_2,...,y^k_l\} ki={y1k,y2k,...,ylk}

下面给出一个拥有 d d d 个输入神经元, l l l 个输出神经元, q q q 个隐层神经元 的多层前馈神经网络:
在这里插入图片描述
其中:
θ j \theta_j θj 表示输出层第 j j j 个神经元的阈值。
γ h \gamma_h γh 表示隐层第 h h h 个神经元的阈值。
ω h j \omega_{hj} ωhj 表示隐层第 h h h 个神经元与输出层第 j j j 个神经元的连接权重。
v i h v_{ih} vih 表示输入层第 i i i 个神经元与隐层第 h h h 个神经元的连接权重。
然后:
β j \beta_j βj 表示输出层第 j j j 个神经元接收到的输入,即 β j = ∑ h = 1 q ω h j b h \beta_j=\sum_{h=1}^q \omega_{hj}b_h βj=h=1qωhjbh
α h \alpha_h αh 表示隐层第 h h h 个神经元接收到的输入,即 α h = ∑ i = 1 d v i h x i \alpha_h=\sum_{i=1}^dv_{ih}x_i αh=i=1dvihxi
也就是说,在计算上面的神经元时:
y j = f ( β j − θ j ) y_j=f(\beta_j-\theta_j) yj=f(βjθj)
b h = f ( α h − γ h ) b_h=f(\alpha_h-\gamma_h) bh=f(αhγh)


上述神经网络里一共要学习的参数有:

  • l l l 个输出层神经元的阈值。即 θ j \theta_j θj
  • q q q 个隐层神经元的阈值。即 γ h \gamma_h γh
  • 隐层到输出层的 q × l q\times l q×l 个权重值。即 ω h j \omega_{hj} ωhj
  • 输入层到隐层的 d × q d\times q d×q 个权重值。即 v i h v_{ih} vih

BP是一个迭代学习算法,在迭代的每一轮中采用广义的感知机学习规则对参数进行更新估计。与感知机类似,任意参数 v v v 的更新估计式为:
v ← v + Δ v v \leftarrow v+\Delta v vv+Δv

BP算法基于 梯度下降(gradient descent) 策略,以目标的负梯度方向对参数进行调整。即对于误差 E k E_k Ek 和学习率 η \eta η ,有:
Δ v = − η ∂ E k ∂ v \Delta v=-\eta\frac{\partial E_k}{\partial v} Δv=ηvEk


假设隐层和输出层的神经元都使用了 s i g m o i d ( x ) = 1 1 + e − x sigmoid(x)=\frac{1}{1+e^{-x}} sigmoid(x)=1+ex1 作为激活函数 f f f

对于训练集 ( x k , y k ) (\bold{x}_k,\bold{y}_k) (xk,yk),假设神经网络的输出为 y ^ k = ( y ^ 1 k , y ^ 2 k , . . . , y ^ l k ) \hat{\bold{y}}_k=(\hat{y}_1^k,\hat{y}_2^k,...,\hat{y}_l^k) y^k=(y^1k,y^2k,...,y^lk),即
y ^ j k = f ( β j − θ j ) \hat{y}^k_j=f(\beta_j-\theta_j) y^jk=f(βjθj)

而网络在 ( x k , y k ) (\bold{x}_k,\bold{y}_k) (xk,yk) 上的均方误差为:(下面式子的 1 2 \frac{1}{2} 21 没有特别的意义,可加可不加,加了后只是让求导的结果少了个系数,表示上更优雅而已)
E k = 1 2 ∑ j = 1 l ( y ^ j k − y j k ) 2 E_k=\frac{1}{2} \sum_{j=1}^l(\hat{y}^k_j-y^k_j)^2 Ek=21j=1l(y^jkyjk)2

则可以求得,各个参数的更新公式为:
Δ ω h j = η g j b h Δ θ j = − η g j Δ v i h = η e h x i Δ γ h = − η e h 其中: g j = y ^ j k ( 1 − y ^ j k ) ( y j k − y ^ j k ) e h = b h ( 1 − b h ) ∑ j = 1 l ω h j g j \Delta\omega_{hj}=\eta g_jb_h \\ \Delta\theta_j=-\eta g_j \\ \Delta v_{ih}=\eta e_hx_i \\ \Delta\gamma_h=-\eta e_h \\ 其中:\\ g_j=\hat{y}^k_j(1-\hat{y}^k_j)(y^k_j-\hat{y}^k_j)\\ e_h=b_h(1-b_h)\sum^l_{j=1}\omega_{hj}g_j Δωhj=ηgjbhΔθj=ηgjΔvih=ηehxiΔγh=ηeh其中:gj=y^jk(1y^jk)(yjky^jk)eh=bh(1bh)j=1lωhjgj


算法:

在(0,1)范围内随机初始化网络中的所有权重和阈值
repeat
····for all ( x k , y k ) ∈ D (\bold{x}_k,\bold{y}_k) \in D (xk,yk)D do
········计算出当前样本的输出 y ^ k \hat{\bold{y}}_k y^k
········计算出 l l l g j g_j gj
········计算出 q q q e h e_h eh
········更新 θ j \theta_j θj γ h \gamma_h γh ω h j \omega_{hj} ωhj v i h v_{ih} vih
····end for
until 达到停止条件(比如训练误差已经达到一个很小的值)

上面介绍的是“标准BP算法”,每次针对一个样例更新参数。
“累计BP算法”:针对累计误差进行更新,即读取整个训练集一遍后才进行一轮更新。

如何设置隐层神经元的个数仍是未决的问题,实际中通常靠 “试错法”(trail-by-error) 调整。

💠缓解过拟合的策略:早停(early stopping)

将数据分成训练集和验证集,训练集用来计算梯度、更新连接权和阈值,验证集用来估计误差。若训练集误差降低但验证集误差升高,则停止训练,同时返回具有最小验证集误差的连接权和阈值。

💠缓解过拟合的策略:正则化(regularization)

在误差目标函数中增加一个 “用于描述网络复杂度的部分”,比如“连接权与阈值的平方和”。令 ω i \omega_i ωi 表示连接权和阈值。则误差目标函数变为:
E = λ 1 m ∑ k = 1 m E k + ( 1 − λ ) ∑ i ω i 2 E=\lambda\frac{1}{m}\sum^m_{k=1}E_k+(1-\lambda)\sum_i\omega_i^2 E=λm1k=1mEk+(1λ)iωi2
其中 λ ∈ ( 0 , 1 ) \lambda\in(0,1) λ(0,1) 用于对“经验误差”与“网络复杂度”这两项折中,常通过交叉验证法来估计。

💠“全局最小” 与 “局部极小”

若用 E E E 表示神经网络在训练集上的误差,则它显然是关于 “连接权 w \boldsymbol{w} w” 和 “阈值 θ \theta θ” 的函数。那么神经网络的训练过程可以看作是一个参数寻优的过程,即在参数空间中,寻找一组最优参数使得 E E E 最小。

两种“最优”:“全局最小(global minimum)” 和 “局部极小(local minimum)”:
在这里插入图片描述
可能存在多个“局部极小”,但只会有一个“全局最小”。显然,我们希望找到“全局最小”。

基于梯度的搜索是使用最为广泛的参数寻优方法。负梯度就是函数下降最快的方向,因此梯度下降法就是沿着负梯度寻找最优解,最终抵达梯度为零的局部极小,更新量为零,即停止。显然,如果误差函数仅有一个局部极小,则此时找到的局部极小就是全局最小。然而,如果误差函数有多个局部极小,则不能保证我们找到了全局最小,此时我们称“陷入”了局部极小,这显然不是我们希望的。

人们常采用以下策略来试图“跳出”局部极小,从而接近全局最小:

  • 以多组参数初始化多个网路。最后选择最小的。
  • “模拟退火”(simulated annealing):每一步都以一定概率接收比当前解更差的结果(但是概率应该逐渐降低,从而让算法稳定)
  • 使用随机梯度下降:在计算梯度时加入随机因素。
  • 遗传算法

需要注意,上述用于跳出局部极小的技术大多是启发式,理论上尚缺乏保障。

其他常见神经网络

(笔者注:原文此处介绍的比较简略,有很多名词我无法理解,所以这里仅保留名字,不做更多记录)

  • RBF(Radial Basis Function,径向基函数)网络
  • ART(Adaptive Resonance Theory,自适应谐振理论)网络。一种竞争学习型无监督神经网络。
  • SOM(Self-Organizing Map,自组织映射)网络。一种竞争学习型无监督神经网络。
  • 级联相关(Cascade-Correlation)网络。是结构自适应网络的重要代表。
  • Elman网络是最常用的 “递归神经网络”(允许网络中出现环形结构)
  • Boltzmann机,是一种“基于能量的模型”,现实中常采用 “受限Boltzmann机”(Restricted Boltzmann Machine,简称RBM)

💠深度学习

典型的深度学习模型就是很深层的神经网络。

虽然模型复杂度可以通过单纯增加隐层神经元数目来实现,但是从增加模型复杂度的角度来看,“增加隐层数目” 显然比 “增加隐层神经元数目” 更有效,因为这还增加了激活函数嵌套的层数。

然而,多隐层神经网络难以直接用经典算法(例如标准BP算法)进行训练,因为误差在多隐层内逆传播时,往往会 “发散(diverge)” 而不能收敛到稳定状态。

多隐层神经网络的训练策略:

  • 无监督逐层学习(unsupervised layer-wise training):每次训练一层隐结点,训练时将上一层隐结点的输出作为输入,而本层隐结点的输出作为下一层隐结点的输入,这称为"预训练" (pre-training);在顶训练全部完成后,再对整个网络进行"微调" (fine-tuning)训练。
    • 例如在深度信念网络(deep belief network,简称DBN),每层都是一个 “受限Boltzmann机”(Restricted Boltzmann Machine)。
  • 权共享(weight sharing):让一组神经元使用相同的连接权。
    • 这个策略在 “卷积神经网络”(Convolutional Neural Network,简称CNN)中发挥了重要作用。

💠卷积神经网络(Convolutional Neural Network,简称CNN)

[LeCun et al., 1998] 《Gradient-based learning applied to document recognition》 中用CNN进行手写文字识别任务为例。
在这里插入图片描述
在这里插入图片描述
这里结合原论文的描述对每一层解释:

  • 输入层: 32 × 32 32\times32 32×32 像素的图像。
  • 卷积层C1:我们使用的卷积核的大小为 5×5。由于输入图片每行有32个像素,所以卷积后每行有32-5+1=28个值。即卷积后是有28×28个值的 特征映射(feature map,也成为特征图),这样特征图的每个值对应输入给一个神经元,所以共有28×28个神经元。需要注意,“权共享”意味着,这28×28个神经元将共享一个权重值。对于C1这一层,我们使用了6个特征图。所以在C1层总共需要训练的参数数量为:6个特征图×(卷积核中5×5个权重+1个阈值)=156。
  • 采样层S2:采样层亦称为 “汇合” (pooling)层,其作用是基于局部相关性原理进行亚采样,从而在减少数据量的同时保留有用信息。对于S2这一层,它其中的每个神经元对应于输入的2×2邻域,所以长宽都是输入的一半,即14×14。同样,“权共享”意味着,这14×14个神经元将共享一个权重值和阈值。所以在S2层总共需要训练的参数数量为:6个特征图×(1个权重+1个阈值)=12。
  • 卷积层C3。同样使用大小为5×5的卷积核。卷积后是10×10大小的特征映射。使用16个特征图。但是需要注意,并非输入的S2的6个特征图每个都与C3的16个特征图的每个相连。实际是这样:在这里插入图片描述
    即:前6个从S2中三个相邻的特征图获取输入。接下来的6个从S2中四个相邻的特征图获取输入。接下来的3个从四个特征图的不连续子集获取输入。最后1个从S2中所有特征图获取输入。数一数上图的X的个数,总共60个,即60个卷积核。所以在C3层总共需要训练的参数数量为:卷积核中5×5个权重×60个卷积核+16个阈值=1516。
  • 采样层S4。类似S2,长宽都是输入的一半,即5×5。在S4层总共需要训练的参数数量为:16个特征图×(1个权重+1个阈值)=32。
  • 卷积层C5。同样使用大小为5×5的卷积核,由于输入的S4的特征图的尺寸也是5×5,所以C5的特征图的尺寸变为了1×1。C5由120个特征图构成,与S4全连接。所以C5层总共需要训练的参数数量为:卷积核中5×5个权重×120×16+120个阈值=48120。
  • 连接层F6。由84个神经元构成(为什么数目是84,原文有解释),与C5全连接。所以F6层总共需要训练的参数数量为:120×84个权重+84个阈值=10164。

原文地址:https://blog.csdn.net/u013412391/article/details/140417301

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!