Press "Enter" to skip to content

深度学习与神经网络:基于自建手写字体数据集上的模型测试

本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.

在上一篇文章中,我们使用mnist数据集去做了一个识别的小型神经网络,在今天的这篇文章里,我们将要通过使用自建数据集去检验上一篇文章的模型,从而真正的可以去应用神经网络.

先解决上一篇文章中一些不完美的地方:

在上一篇文章的backward.py中,我们训练神经网络时,如果中途遇到一些事情,想要结束,回过头来再重新开始的话,我们的模型还得需要从第一步一点点开始算,尽管我们已经保存了模型,但是没有用上,这样很不好.而现在我们给我们的模型加上”断点续训”的功能.

首先:先上代码:

在这里我们要用到的是:tf.train.get_checkpoint_state()和saver.restore()这两个函数:

第一个函数的完整格式应该是这样:

tf.train.get_checkpoint_state(checkpoint_dir,latest_filename=None)

这个模型说的是如果断点文件夹里含有这个有效的断点状态文件,那就返回这个文件.

其中checkpoint_dir说的是存储断点的目录,latest_filename=None指的是断点的可选名称,我们默认一般是”checkpoint”.

第二个函数的完整格式应该是这样:

saver.restore(sess, ckpt.model_checkpoint_path)

这个模型说的是恢复当前的会话,把从ckpt中恢复的结果加载到当前的会话中.

sess说的是现在的会话,而ckpt.model_checkpoint_path说的是模型的路径.

就这样,加上上述的代码后,我们就可以实现”断点续训”功能.

说回正题:那我们如何输入真实图片去输出预测结果?

想到我们使用的mnist数据集,数据集中的图片为标准的28*28的黑白文件,并且每个文件的输出为10个可能性概率所构成的一维数组.(十个可能性概率),数组中最大的那个元素所对应的索引号就是预测的结果。

因此我们自己的真实图片需要自己处理一下,使得我们自己的图片来符合模型的要求.

具体操作应该结合代码一起说说:

在这里我们的关键处理:

我们的任务主要是由两个函数构成:

1:testPicArr = pre_pic(testPic),对自己输入的图片进行预处理

2:preValue = restore_modle(testPicArr),对符合神经网络模型要求的图片进行输入,输出预测值.

具体代码如下:

pre_pic():

处理图像这一部分的逻辑比较简单,这里我们要用到PIL这个库.这个库的功能极其丰富,有兴趣的同学可以自己学习下.

代码的处理过程;

(1)模型的要求是黑底白字,但输入的图是白底黑字,所以需要对每个像素点 的值改为 255 减去原值以得到互补的反色。

(2)对图片进行二值化处理,从而降低噪声.

(3)把图片形状拉成 1 行 784 列,并把值变为浮点型(因为要求像素点是 0-1 之间的浮点数)。

(4)接着让现有的 RGB 图从 0-255 之间的数变为 0-1 之间的浮点数。

(5)运行完成后返回到 main 函数。

restore_modle()

这里使用的是滑动平均去减少误差.最后载入我们保存的模型.最后计算求得输出 y,y 的最大值所对应的列表索引号就是预测结果。

最后我们来测试一下:

这里我自己用画板截图了几张图片进行测试:

从比例看,是远远大于28*28的,那让我们看看效果如何?

从测试的情况来看,情况比较一般,部分可以识别,但是有些不能够识别,可能是因为我训练次数太少,等训练次数多应该会有更好的结果.

Be First to Comment

发表评论

电子邮件地址不会被公开。 必填项已用*标注