深度学习--卷积神经网络
笔记内容侵权删
卷积神经网络
卷积神经网络(Convolutional Neural Network,CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的单元,对于图像处理有出色表现。它包括卷积层(convolutional layer),池化层(pooling layer)和全连接层(fully connected layer)
卷积神经网络核心思想
局部感知:一般认为,人对外界的认知是从局部到全局的,而图像的空间联系也是局部的像素联系较为紧密,而距离较远的像素相关性则较弱。因而,每个神经元没有必要对全局图像进行感知,只需要对局部进行感知,然后在更高层将局部的信息综合起来就得到了全局的信息。
参数共享:对输入的图片,用一个或者多个卷积核扫描照片,卷积核自带的参数就是权重,在同一个卷积核扫描的图层当中,每个卷积核使用同样的参数进行加权计算。权值共享意味着每一个卷积核在遍历整个图像的时候,卷积核的参数是固定不变的。
........................【卷积(核)的作用就是特征提取】
卷积层
卷积神经网络的基本结构,就是多通道卷积(由多个单卷积构成)。上一层的输出(或者第一层的原始图像),作为本层的输入,然后和本层的卷积核卷积,作为本层输出。而各层的卷积核,就是要学习的权值。和全连接层类似,卷积完成后,输入下一层之前,也需要经过偏置和通过激活函数进行激活
池化层
池化(Pooling),它合并了附近的单元,减小了下层输入的尺寸,起到降维的作用。常用的池化有最大池化(Max Pooling)和平均池化(Average Pooling),顾名思义,最大池化选择一小片正方形区域中最大的那个值作为这片小区域的代表,而平均池化则使用这篇小区域的均值代表之。这片小区域的边长为池化窗口尺寸。
全连接层
全连接层实质上就是一个分类器,将前面经过卷积层与池化层所提取的特征,拉直后放到全连接层中,输出结果并分类。
通常我们使用Softmax函数作为最后全连接输出层的激活函数,把所有局部特征结合变成全局特征,用来计算最后每一类的得分。
循环神经网络
循环神经网络(Recurrent neural networks,简称RNN)是一种通过隐藏层节点周期性的连接,来捕捉序列化数据中动态信息的神经网络,可以对序列化的数据进行分类。和其他前向神经网络不同,RNN可以保存一种上下文的状态,甚至能够在任意长的上下文窗口中存储、学习、表达相关信息,而且不再局限于传统神经网络在空间上的边界可以在时间序列上有延拓,直观上讲,就是本时间的隐藏层积下一时刻的隐藏层之间的节点间有边。
RNN广泛应用在和序列有关的场景,如如一帧帧图像组成的视频,一个个片段组成的音
频,和一个个词汇组成的句子。
原文地址:https://blog.csdn.net/TaoYuan__/article/details/143783712
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!