Press "Enter" to skip to content

基于BP神经网络算法的实现静态图片和视频人脸识别、性别识别

本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.

资源下载地址:https://download.csdn.net/download/sheziqiong/85772066

 

资源下载地址:https://download.csdn.net/download/sheziqiong/85772066

 

BP 神经网 人脸识别 性别识别

 

 

兴趣的起源

之前去超市的时候,发现大润发里面有一个显示屏,人走过去的时候就会检测人脸,并对性别和年龄做出判断。 我对此十分感兴趣,在上了机器学习这门课后,听老师说实现人脸识别不是一件困难的事情,这就激发了我自己动手 实现人脸识别和性别识别的梦想。

 

准备工作

由于完全是一个小白进行开发,中间走了很多弯路,所以在这里重新梳理了一下所用到的工具,并对其用法进行 一个简要的介绍。

 

 

anaconda 界面

 

anaconda 是一个专业的 python 管理器。之前我直接在官网安装 python,使用 pip 进行管理,到后面发现很多包 pip 根本安装不了。anaconda 的优点在于:

 

 

    1. anaconda 提供了界面化的设置。能够十分方便的下载和删除应用包。还能很容易的查看已安装的包和能安 装的包。

 

anaconda 能够十分方便地对 Python 环境进行设置。能够很快地独立创建一个新环境,十分方便管理。

 

 

 

OpenCV 是一个基于 BSD 许可(开源)发行的跨平台计算机视觉库,可以运行在 Linux、Windows、Android 和 Mac OS 操作系统上。它轻量级而且高效——由一系列 C 函数和少量 C++ 类构成,同时提供了 Python、Ruby、 MATLAB 等语言的接口,实现了图像处理和计算机视觉方面的很多通用算法。 我们可以使用 OpenCV 的 python 接口, 在 anaconda 里面可以搜索 opencv 安装相应的包

 

 

人脸检测

 

第一步我们需要检测出人脸,这里我们利用 opencv 自带的分类器识别人脸,并画出框框显示人脸区域。先展示 代码然后再进行说明。

 

import cv2
filename = 'c:/users/zhao1/Desktop/show/test/example/1.jpg 
casvade_face_name='c:/users/zhao1/Desktop/show/test/cascades/haarcascade_frontalface_defau1t.xm7'
    
def detect(fi1ename) :
face_cascade=cv2.cascadec1assifier(casvade_face_name)
    img=cv2.imread(fi1ename)
    gray=cv2.cvtcolor(img , cv2.COLOR_BGR2GRAY)
    
faces=face_cascade.detectMu7tiscale(gray,1.5,3)
    for (x,y ,w,h) in faces:
img = cv2.rectang1e(img , (x,y) , (x+w,y+h), (255,0,0),2)
cv2.namedwindow( 'find ')
cv2.imshow( 'face' ,img)
cv2.imwrite('c:/users/zhao1/Desktop/show/test/人脸.jpg ' , img)cv2.waitKey(0)
detect(filename)

 

import cv2 这句话是导入 opencv 应用包,我们需要确定自己的环境中已经下载并安装了 opencv. filename =’C:/Users/zhao1/Desktop/show/test/example/1.jpg’casvade_face_name=‘C:/Users/zhao1/Desktop/show/test/cascades/haarcascade_frontalface_default.xml’

 

filename是要检测的照片路径,casvade_face_name是人脸分类器的绝对路径。这里我使用的是绝对路径,如 果想要工程的可移植性更好的话最好用相对路径。

 

注意:在 python 中,路径要小心反斜杠产生转义字符。所以这里使用‘/’代替原本路径的‘\’,具体可以学习一下 python 语法

 

face_cascade=cv2.CascadeClassifier(casvade_face_name) img=cv2.imread(filename)

 

第一行是读取分类器,并返回一个值;第二行是读取图片文件。

 

gray=cv2.cvtColor(img,cv2.COLOR_BGR2GRAY) faces=face_cascade.detectMultiScale(gray,1.5,3)

 

第一行是将读到的图片进行灰度化处理,这是因为 opencv 处理是对灰度照片进行处理。第二行 detectMultiScale 是对人脸检测的函数,后面的参数可以点进去查看详情

 

def detectMultiScale(self, image, scaleFactor=None, minNeighbors=None, flags=None,
minSize=None, maxSize=None): # real signature unknown; restored from __doc__
"""
detectMultiScale(image[, scaleFactor[, minNeighbors[, flags[, minSize[,
maxSize]]]]]) -> objects
. @brief Detects objects of different sizes in the input image. The detected
objects are returned as a list
. of rectangles.
.
. @param image Matrix of the type CV_8U containing an image where objects are
detected.
. @param objects Vector of rectangles where each rectangle contains the
detected object, the
. rectangles may be partially outside the original image.
. @param scaleFactor Parameter specifying how much the image size is reduced at
each image scale.
. @param minNeighbors Parameter specifying how many neighbors each candidate
rectangle should have
. to retain it.
. @param flags Parameter with the same meaning for an old cascade as in the
function
. cvHaarDetectObjects. It is not used for a new cascade.
. @param minSize Minimum possible object size. Objects smaller than that are
ignored.
. @param maxSize Maximum possible object size. Objects larger than that are
ignored. If `maxSize == minSize` model is evaluated on single scale.
.
. The function is parallelized with the TBB library.

 

这是一个经常使用的函数。

 

for (x,y,w,h) in faces: img = cv2.rectangle(img,(x,y),(x+w,y+h),(255,0,0),2) cv2.namedWindow('find')
cv2.imshow('face',img) cv2.imwrite('C:/Users/zhao1/Desktop/show/test/人脸.jpg ',img)

 

这些是画出方框并保存。其中(x,y,w,h)里面的 x,y 是指检测到的人脸左上角的坐标,w,h 分别是区域的长度和宽 度。 下面是这个例程最后的效果,大家可以添加自己的图片

 

 

人脸识别效果图 上面我们就实现了对人脸的简单识别。

 

在视频中检测人脸

 

在实现图片中检测人脸之后,我们尝试从视频中实现人脸的识别。主体代码和之前的类似,只是增加了摄像头的 驱动还有图像的获取。下面具体说明。

 

camera= cv2.VideoCapture(0)

 

要使用摄像头,需要使用 cv2.VideoCapture(0)创建 VideoCapture 对象,参数:0 指的是摄像头的编号。如果你 电脑上有两个摄像头的话,访问第 2 个摄像头就可以传入 1。

 

ret, frame=camera.read()

 

这是从摄像头中读取图片,frame 相当与前面的 img,后面的处理与前面类似。下面是效果图。

 

 

进阶应用

 

在掌握简单的应用之后我开始了进阶之路。 在这里我们需要应用 BP 神经网络对样本训练之后再判断视频中人的 性别。 这个源代码是我经过认真整理之后的代码,里面的注释写的很详细,大家可以仔细阅读。

 

BP 神经网络

 

后面的代码都是根据老师的课件进行分析的。 人工神经网络(ANNs)提供了一种普遍而且实用的方法,来从样例 中学习值为实数、离散或向量的函数。 反向传播算法使用梯度下降来调节网络参数以最佳拟合由输入-输出对组成的 训练集合。 我们结合代码和资料学习会对此理解更深刻。

 

核心函数学习

 

下面先列出算法的核心函数,后面再对照老师的资料详细讲解

 

'''
训练样本:百度的图片。女生标签为0,男生标签为1.
训练方法:简单的梯度下降法
参考:https://blog.csdn.net/yunyunyx/article/details/80539222
'''
'''
设置一个隐藏层,为每张照片像素值-->pixel_mat 隐藏层神经元个数-->1
输入为每张图片的灰度像素矩阵
x_train:训练样本的像素数据
y_train:训练样本的标签
w:输出层权重
b:输出层偏置
w_h:隐藏层权重
b_h:隐藏层偏置
step:循环步数
'''
def mytrain(x_train,y_train):
step=int(input('mytrain迭代步数:'))
a=double(input('学习因子:'))
inn = pixel_mat #输入神经元个数
hid = int(input('隐藏层神经元个数:')) #隐藏层神经元个数
out = 1 #输出层神经元个数
w = np.random.randn(out,hid)
w = np.mat(w)
b = np.mat(np.random.randn(out,1))
w_h = np.random.randn(hid,inn)
w_h = np.mat(w_h)
b_h = np.mat(np.random.randn(hid,1))
for i in range(step):
# 打乱训练样本
r=np.random.permutation(photonum)
x_train = x_train[:,r]
y_train = y_train[:,r]
for j in range(photonum):
x = np.mat(x_train[:,j])
这个函数输入有两个矩阵,一个是样本数据,一个是样本标签,至于如何得到这些数据,我们后面再说,现在只
要关注函数本身就好。这里的样本数据是像素值,样本标签是人为设定的,我们设置0为女生,1为男生。
首先,函数要求我们手动输入几个参数,分别是迭代步数、学习因子和隐藏神经元个数。迭代步数会影响我们最
后的准确度和学习所需要的时间,学习因子是反向传播算法的一个参数,而隐藏神经元个数和输入的像素个数有关。
接下来就是对参数的初始化。
w:输出层权重 b:输出层偏置 w_h:隐藏层权重 b_h:隐藏层偏置 step:循环步数 w =
np.random.randn(out,hid) w = np.mat(w) b = np.mat(np.random.randn(out,1)) w_h =
np.random.randn(hid,inn) w_h = np.mat(w_h) b_h = np.mat(np.random.randn(hid,1))
x = x.reshape((pixel_mat,1))
y = np.mat(y_train[:,j])
y = y.reshape((1,1))
hid_put = layerout(w_h,b_h,x)
out_put = layerout(w,b,hid_put)
# 更新公式的实现
o_update = np.multiply(np.multiply((y-out_put),out_put),(1-out_put))
# 计算输出单元误差项,y->tk
h_update = np.multiply(np.multiply(np.dot((w.T),np.mat(o_update)),hid_put),
(1-hid_put)) #隐藏单元误差项
outw_update = a*np.dot(o_update,(hid_put.T))
# 从隐藏层到输出层的dw
outb_update = a*o_update
hidw_update = a*np.dot(h_update,(x.T))
hidb_update = a*h_update
w = w + outw_update
# 更新参数
b = b+ outb_update
w_h = w_h +hidw_update
b_h =b_h +hidb_update
return w,b,w_h,b_h

 

这个函数输入有两个矩阵,一个是样本数据,一个是样本标签,至于如何得到这些数据,我们后面再说,现在只 要关注函数本身就好。这里的样本数据是像素值,样本标签是人为设定的,我们设置 0 为女生,1 为男生。

 

首先,函数要求我们手动输入几个参数,分别是迭代步数、学习因子和隐藏神经元个数。迭代步数会影响我们最 后的准确度和学习所需要的时间,学习因子是反向传播算法的一个参数,而隐藏神经元个数和输入的像素个数有关。

 

接下来就是对参数的初始化。

 

w:输出层权重 b:输出层偏置 w_h:隐藏层权重 b_h:隐藏层偏置 step:循环步数 w =
np.random.randn(out,hid) w = np.mat(w) b = np.mat(np.random.randn(out,1)) w_h =
np.random.randn(hid,inn) w_h = np.mat(w_h) b_h = np.mat(np.random.randn(hid,1))

 

每个参数上面都有注释,现在说明一下参数 和老师 PDF 里面的对应情况。 我们总共有三层,输入层,隐藏层和 输出层。输入层神经元个数是照片像素个数,输出是神经元只有一个,隐藏层个数人为设定。 看到关于感知器的那 页。

 

 

w:对应就是由 组成的向量,只不过是输出层的权重。同理 w_h 也是如此。 b:输出层的偏置,对应的就 是 。b_h 也是如此。 有了输出层和隐藏层,我们就要处理输入层,下面这段就是对输入层的处理。

 

打乱训练样本

 

r=np.random.permutation(photonum)
x_train = x_train[:,r]
y_train = y_train[:,r]
for j in range(photonum):
x = np.mat(x_train[:,j])
x = x.reshape((pixel_mat,1))
y = np.mat(y_train[:,j])
y = y.reshape((1,1))

 

还是上面的对照表,实际上我们输入的 x_train 是一个很大的矩阵,包含了所有照片的像素值,每一列就代表一张 照片的像素向量。所以 x_train[:,r]代表的就是第 r 张照片的像素向量。单独整理成矩阵之后,x 对应的就是 这些输入。值得注意的是,偏置也有输入 ,只不过默认值为 1,所以在 PDF 中没有表示出来。

 

有了数据的初始化之后,我们就要用 sigmoid 函数对结果进行初始化,以便于后面的更新。看到 PDF 有关于 sigmoid 单元的描述

 

 

这里使用了一个 layerout 函数,是自己写的

 

hid_put = layerout(w_h,b_h,x) out_put =layerout(w,b,hid_put)

 

这里要详细看一下图中的那个求和了。 由于 ,所以上式也 可以写作 因此在这个 layerout 函数中,b_h 代表的就是 ,w_h 和 x 的向 量积就是后面的累加。这两句话的就是先算出输入层到隐藏层的值,再将这个输出值作为输入,计算隐藏层到输出的 值

 

 

对应这部分的代码是代码中 更新公式的实现 后面那一部分,我们将一句一句介绍。

 

o_update = np.multiply(np.multiply((y-out_put),out_put),(1-out_put)) #计算输出单元误差项,

 

这是计算输出单元误差,其中 multipiy 是 python 中的一个计算乘积的方法。out_put 对应的 ,而 y 则对应的是 。o_update 对应的是

 

h_update = np.multiply(np.multiply(np.dot((w.T),np.mat(o_update)),hid_put),(1-hid_put)) #隐藏单元误差项

 

这里是计算隐藏单元的误差,h_updata 对应的是 ,dot 是 python 计算向量点乘的方法。w.T 是将 w 矩阵转置, hid_put 对应的是 。

 

之所以叫误差沿网络反向传播,是因为我们先算出输出层的误差,将这个误差作为输入,再计算隐藏层的误差。 计算完误差之后我们就需要跟新每个网络的权值了。

 

outw_update = anp.dot(o_update,(hid_put.T)) #从隐藏层到输出层的dw outb_update = ao_update
hidw_update = anp.dot(h_update,(x.T)) hidb_update = ah_update

 

这里就是计算输入层到隐藏层,隐藏层到输出层的 ,其中 a 对应的就是学习因子 。 后面几行就是更新权重了,这里不做过多解释。

 

数据的获得和处理

 

在学习完核心代码之后,我们只要获得输入的矩阵就可以啦。 其他的代码比较简单,注释因该能看懂,我就简 略地介绍。 之前说过,输入矩阵是一个很大的矩阵,矩阵中的每一列就代表一张照片,比如我们由 200 张照片,每张 照片由 1010=100 个像素点,那幺这个矩阵就是一个 100200 的矩阵。 要得到这些数据,我们第一步需要找到人脸识别 库,有很多开源的人脸识别库大家可以从里面获得各种各样想要的照片。 获得了照片之后,我们首先要识别人脸, 这个在函数

 

def get_face_from_photo(i,path,spath)

 

这里将人脸识别出来之后灰度化再重新保存成带有编号的照片。 由于识别出来的人脸像素值太大,而且不同的 照片包含的像素值不同,所以我们需要统一每张照片的像素值,用到了这个函数

 

def change_photo_size(path,spath);

 

这里统一像素值之后吧照片又保存到另外一个文件夹。

 

得到像素值统一的灰度图片之后,我们需要将所有图片都弄到一个大矩阵里面作为核心函数的输入,因此我们有 这个函数

 

def read_photo_for_train(k,photo_path);

 

工作流程

 

整个工作流程是从工程中主函数开始的。下面是流程图

 

 

训练结束的时候相当于就是确定了每一层的权重,然后将待测的照片输入就可以。 获取视频中的人脸并进行处 理的速度会有点慢,所以视频会比较卡。

 

结果演示

 

下面我们来看一下演示的结果 运行程序之后会首先读取照片训练样本,当所有的照片处理完之后,会提醒你输 入迭代步数,学习因子和隐藏层数。

 

 

输入参数

 

注意我们输入的迭代步数和神经元个数都比较大,计算时间可能会比较久,测试的时候可以改成 300 左右

 

资源下载地址:https://download.csdn.net/download/sheziqiong/85772066

 

资源下载地址:https://download.csdn.net/download/sheziqiong/85772066

Be First to Comment

发表评论

您的电子邮箱地址不会被公开。