自学内容网 自学内容网

【自然语言处理】(3) --RNN循环神经网络

RNN循环神经网络

循环神经网络(RNN,Recurrent Neural Network)是一种用于处理序列数据的神经网络模型。其关键特性在于网络节点(神经元)之间形成了循环连接,这使得RNN能够捕捉数据中的时间依赖性序列特性

一、传统神经网络的问题

序列数据:如文本、语音、股票、时间序列等数据,当前数据内容与前面的数据有关。

问题:无法训练出具有顺序的数据。模型搭建时没有考虑数据上下之间的关系。

比如:将“我要去打篮球”,分词后“我”,“要”,“去”,“打”,“篮球”,放进神经网络中训练得到一个结果之后。此时更改为“我要打篮球去”,模型可能就识别不出来了,没有办法将词语的上下词关系联系到一起。因为传统神经网络的每个输入层之间是没有建立关系的

在这里插入图片描述

于是,我们提出了一种新的神经网络模型RNN。

二、RNN的基本结构

RNN的基本单元是一个带有循环连接的神经元(也称为RNN单元或节点)。在处理序列输入时具有记忆性,可以保留之前输入的信息并继续作为后续输入的一部分进行计算

  • 输入

每个RNN单元接收两个输入:当前时间步的输入词向量x和上一个时间步的隐藏状态h(之前保留的信息)。RNN单元的输出是当前时间步的隐藏状态h,这个输出可以被传递到下一个时间步的RNN单元,也可以用于生成当前时间步的输出y(如果有需要的话)。

在这里插入图片描述

  • 输出

RNN结构中输入是x1, x2, …xn,输出为y1, y2, …yn,也就是说,输入和输出序列必须要是等长的

但是,对于每个层都会计算的y结果,我们一般情况只需要最后一层的输出结果,因为只有它是吸收所有信息后的结果,前面层的结果几乎不要。

当模型的输出层是softmax或sigmoid函数时,输出将是概率值交叉熵损失函数特别适用于这种情况,因为它直接操作概率值,而不是原始分数或类别标签。

在这里插入图片描述

三、计算过程

RNN的展开形式(Unfolding)有助于理解其工作原理。

注意:展开后,RNN看起来像是一个多层的前馈神经网络,但每一层的权重是共享的,每层的U、W、b是一样的,这是RNN的重要特点。这种权重共享机制使得RNN能够处理任意长度的序列,而不需要为每个时间步训练不同的权重。

在这里插入图片描述

如此计算就可以保留序列数据的关系,比如,”今天我要去打球“,分词后”今天“,”我要“,”去“,”打球“,传入循环神经网络:

在这里插入图片描述

每一层训练都保留了上一层训练的特征信息,从而使得最后的输出结果保留了所有单词的特征信息,这样模型预测时,输入”我要打球去今天“,只要特征信息对应上就可以理解为相同意思。

4. RNN的局限

  • 局限

当出现“我的职业是程序员,…,我最擅长的是电脑”。当需要预测最后的词“电脑”。当前的信息建议下一个词可能是一种技能,但是如果我们需要弄清楚是什么技能,需要先前提到的离当前位置很远的“职业是程序员”的上下文。

这说明相关信息和当前预测位置之间的间隔就变得相当的大。在理论上,RNN绝对可以处理这样的长期依赖问题。人们可以仔细挑选参数来解决这类问题中的最初级形式,但在实践中,RNN则没法太好的学习到这些知识

  • 原因

梯度会随着时间的推移不断下降减少,而当梯度值变得非常小时,就不会继续学习。

形象类似于,一个学生学知识,一次性学了五六个小时的知识,脑袋已经记不进去东西了,学不进去了。但是人类还可以记得大部分的知识,因为人类有一个特点,那就是可以抓获关键词,但是RNN神经网络不行,传进去一个词就记一个,到后来,学不进去了。

  • 解决问题

创建LSTM网络模型,一种RNN网络的特殊类型,可以长期依赖信息。我们下篇介绍。

总结

本篇介绍了:

  1. 传统神经网络的每个输入层之间是没有建立关系的,无法训练出具有顺序的数据。
  2. RNN的基本结构,保留之前输入的信息并继续作为后续输入的一部分进行计算。
  3. 重要特点:RNN看起来像是一个多层的前馈神经网络,但每一层的权重是共享的,每层的U、W、b是一样的。
  4. 局限:梯度会随着时间的推移不断下降减少,而当梯度值变得非常小时,就不会继续学习。

原文地址:https://blog.csdn.net/m0_74896766/article/details/142795083

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!