Press "Enter" to skip to content

深度学习笔记(6):卷积神经网路CNN

点阵图分为两种:

 

黑白图: 0~255的灰阶值

 

彩色图: RGB三个值的範围分别是0~255。(黑色是0,0,0)、(白色是255,255,255)、红色是(255,0,0)

 

卷积运算和池化运算

 

卷积运算:输入图片->过滤器(进行元素相乘加总)->特徵图(计算出数值)

 

池化运算:压缩和保留特徵图得重要资讯(会压缩特徵图尺寸)

 

卷积神经网路CNN

 

输入层->卷积层->池化层->卷积层->池化层->全连接层(隐藏层)->输出层。

 

详细流程:

 

输入->卷积->启动函数->特徵图->池化->特徵图-> 平坦化
(将全部特徵图的 矩阵转换成向量
)->全连接层->输出层。

 

CNN学的就是卷积层的权重(过滤器),使用乱数初始过滤器的矩阵内容,然后用正向传播和反向传播学习权重后,过滤器可以自动辨识出图片所需萃取的特徵。

 

池化层的目的是压缩特徵图来提取最强的特徵,将特徵更明显的显示出来。池化运算会缩小特徵图的尺寸,如同将CNN的视野拉远,一开始只看到局部的点、线、角,最后拉大视野,看到全域特徵。

 

CNN的输入层、输出层和全连接层与 MLP
多层感知器相同, 主要差异在于卷积层和池化层

 

卷积层学会局部后,就可以辨识出现在不同位置的图片;全连接层则是不同位置,都必须重新学习。

 

权重共享指的是每一个局部连接神经元都使用相同权重。

 

Stride(步幅):图片从左至右、从上至下使用过滤器窗格的方框扫过图片执行运算,移动速度为每次一个像素时

 

Zero Padding(补零):卷积运算后,图片会越来越小,而且还会损失资料周围的资讯。可在图片外围补零,即可让输入与输出的图片尺寸相同。

 

Dropout层:在步新增训练资料的情况下,对抗Overfitting的方法。随机选择10~80%之间的输入资料,将数值设为0。有点像是银行柜檯常常在换人,避免产生共犯结构,进而出现金融犯罪。Dropout就是在打断多个神经元之间的共适性,建立出泛化性更佳的预测模型。

 

卷积神经网路考量的几个要点:

 

 

    1. 每一层卷积层需要几个过滤器?过滤器尺寸为何?卷积运算是否需要补零?步辐需要多大?

 

    1. 每一层池化层的窗格大小为何?需要间隔几个元素来压缩特徵图?

 

    1. 每一层Dropout层输出随机归零的百分比是多少?

 

Be First to Comment

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注