点阵图分为两种:
黑白图: 0~255的灰阶值
彩色图: RGB三个值的範围分别是0~255。(黑色是0,0,0)、(白色是255,255,255)、红色是(255,0,0)
卷积运算和池化运算
卷积运算:输入图片->过滤器(进行元素相乘加总)->特徵图(计算出数值)
池化运算:压缩和保留特徵图得重要资讯(会压缩特徵图尺寸)
卷积神经网路CNN
输入层->卷积层->池化层->卷积层->池化层->全连接层(隐藏层)->输出层。
详细流程:
输入->卷积->启动函数->特徵图->池化->特徵图-> 平坦化
(将全部特徵图的 矩阵转换成向量
)->全连接层->输出层。
CNN学的就是卷积层的权重(过滤器),使用乱数初始过滤器的矩阵内容,然后用正向传播和反向传播学习权重后,过滤器可以自动辨识出图片所需萃取的特徵。
池化层的目的是压缩特徵图来提取最强的特徵,将特徵更明显的显示出来。池化运算会缩小特徵图的尺寸,如同将CNN的视野拉远,一开始只看到局部的点、线、角,最后拉大视野,看到全域特徵。
CNN的输入层、输出层和全连接层与 MLP
多层感知器相同, 主要差异在于卷积层和池化层
卷积层学会局部后,就可以辨识出现在不同位置的图片;全连接层则是不同位置,都必须重新学习。
权重共享指的是每一个局部连接神经元都使用相同权重。
Stride(步幅):图片从左至右、从上至下使用过滤器窗格的方框扫过图片执行运算,移动速度为每次一个像素时
Zero Padding(补零):卷积运算后,图片会越来越小,而且还会损失资料周围的资讯。可在图片外围补零,即可让输入与输出的图片尺寸相同。
Dropout层:在步新增训练资料的情况下,对抗Overfitting的方法。随机选择10~80%之间的输入资料,将数值设为0。有点像是银行柜檯常常在换人,避免产生共犯结构,进而出现金融犯罪。Dropout就是在打断多个神经元之间的共适性,建立出泛化性更佳的预测模型。
卷积神经网路考量的几个要点:
- 每一层卷积层需要几个过滤器?过滤器尺寸为何?卷积运算是否需要补零?步辐需要多大?
- 每一层池化层的窗格大小为何?需要间隔几个元素来压缩特徵图?
- 每一层Dropout层输出随机归零的百分比是多少?
Be First to Comment