Press "Enter" to skip to content

基于pytorch搭建VGGNet神经网络用于花类识别

本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.

持续创作,加速成长!这是我参与「掘金日新计划 · 6 月更文挑战」的第9天,点击查看活动详情

 

:tangerine:作者简介:秃头小苏,致力于用最通俗的语言描述问题

 

:tangerine:往期回顾: 卡尔曼滤波系列1——卡尔曼滤波 基于pytorch搭建AlexNet神经网络用于花类识别

 

:tangerine:近期目标:拥有5000粉丝

 

:tangerine:支持小苏:点赞:+1|type_3:、收藏:star:、留言:envelope_with_arrow:

 

基于pytorch搭建VGGNet神经网络用于花类识别

 

写在前面

 

上一篇写过 基于pytorch搭建AlexNet神经网络用于花类识别 项目实战,建议阅读此篇前先弄明白上篇所述之事:pineapple::pineapple::pineapple:此外本节搭建的网络模型是VGG,需要你对VGG的网络结构有较深入的了解,还不清楚的戳此图标☞☞☞了解详情。

 

这篇文章同样是对花的类别进行识别,和上一篇使用AlexNet进行识别整体步骤是完全类似的,主要区别就是网络的结构有所不同,因此,本节将只针对VGG的网络结构搭建进行详细的讲解,其余部分基本和上一篇一致,不再赘述,大家可自行下载 代码 进一步研究。

 

VGGNet网络模型搭建

 

这一部分的代码可能真的能让你感受到代码之美,写的确实太漂亮了:maple_leaf::maple_leaf::maple_leaf:首先我们知道VGG一共有四种结构,分别为VGG11、VGG13、VGG16、VGG19。我想若是让我们单独的构建一种VGG网络是不难办到的,VGG这种直筒型的结构用代码实现是较容易的。官方的demo中通过一个字典将4中结构的VGG网络放在了一起,只需要我们在调用的时候传入相关参数就可以了,实在是太妙了!!!下面让我们一起来学习一下 首先我们定义了一个字典 cfgs ,字典中有四个键值对,每个键对应VGG的一种结构,每个值是对应结构中的一些参数。

 

cfgs = {
    'vgg11': [64, 'M', 128, 'M', 256, 256, 'M', 512, 512, 'M', 512, 512, 'M'],
    'vgg13': [64, 64, 'M', 128, 128, 'M', 256, 256, 'M', 512, 512, 'M', 512, 512, 'M'],
    'vgg16': [64, 64, 'M', 128, 128, 'M', 256, 256, 256, 'M', 512, 512, 512, 'M', 512, 512, 512, 'M'],
    'vgg19': [64, 64, 'M', 128, 128, 'M', 256, 256, 256, 256, 'M', 512, 512, 512, 512, 'M', 512, 512, 512, 512, 'M'],
}

 

具体的,我们拿vgg16来进行相关解释:

 

有了这个字典之后,我们就可以通过传入相关参数来构建特征提取层:

 

# 在cfgs传入"vgg16",得到一个列表cfg
#cfg = [64, 64, 'M', 128, 128, 'M', 256, 256, 256, 'M', 512, 512, 512, 'M', 512, 512, 512, 'M']
cfg = cfgs["vgg16"]    
#定义特征提取层函数make_features,将cfg作为参数传入
def make_features(cfg: list):
    layers = []
    in_channels = 3
    #遍历整个cfg列表
    for v in cfg:
        #若v的值为"M",则在层结构layers中添加一个最大池化层,其kernel_size=2, stride=2
        if v == "M":
            layers += [nn.MaxPool2d(kernel_size=2, stride=2)]
        #若v值为数字,则在层结构layers中添加一个卷积层核和Relu激活函数
        else:
            conv2d = nn.Conv2d(in_channels, v, kernel_size=3, padding=1)
            layers += [conv2d, nn.ReLU(True)]
            in_channels = v
    return nn.Sequential(*layers)

 

通过上面程序,我们可以来看一下得到的layers内部的部分结构【只选了前几个层】,如下图所示:

 

 

接下来我们可以来构建我们的分类层,即全连接层的部分:

 

self.classifier = nn.Sequential(
            nn.Linear(512*7*7, 4096),
            nn.ReLU(True),
            nn.Dropout(p=0.5),
            nn.Linear(4096, 4096),
            nn.ReLU(True),
            nn.Dropout(p=0.5),
            nn.Linear(4096, num_classes)
        )

 

这些都准备好之后,我们就可以来定义我们的网络模型了,如下所示:

 

class VGG(nn.Module):
    def __init__(self, features, num_classes=1000):
        super(VGG, self).__init__()
        self.features = features
        self.classifier = nn.Sequential(
            nn.Linear(512*7*7, 4096),
            nn.ReLU(True),
            nn.Dropout(p=0.5),
            nn.Linear(4096, 4096),
            nn.ReLU(True),
            nn.Dropout(p=0.5),
            nn.Linear(4096, num_classes)
        )
        if init_weights:
            self._initialize_weights()
    def forward(self, x):
        # N x 3 x 224 x 224
        x = self.features(x)
        # N x 512 x 7 x 7
        x = torch.flatten(x, start_dim=1)
        # N x 512*7*7
        x = self.classifier(x)
        return x

 

至此,我们的模型就创建完毕,最后让我们来看看我们刚刚创建的VGG模型结构:

 

 

训练结果展示

 

本篇文章不再详细讲解训练步骤,和 基于pytorch搭建AlexNet神经网络用于花类识别 基本一致。这里展示一下训练结果,如下图所示:

 

 

其准确率达到了0.761,我们可以再来看看我们保存的VGG模型,如下图,可以看出VGG用到的参数还是很多的,有500+M,这和我们的理论部分也是契合的。

 

 

小结

 

对于这一部分我强烈建议大家去使用Pycharm的调试功能,一步步的看每次运行的结果,这样你会发现代码结构特别的清晰。

 

参考视频: www.bilibili.com/video/BV1i7… :cherry_blossom::cherry_blossom::cherry_blossom:

 

如若文章对你有所帮助,那就

 

咻咻咻咻~~duang~~点个赞呗

Be First to Comment

发表评论

您的电子邮箱地址不会被公开。