Press "Enter" to skip to content

孪生网络特征用于图像匹配

本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.

1. 摘要和贡献

 

在计算机视觉应用领域,如运动结构分析、多视图3D重建、图像检索和基于图像的地位,图像匹配都扮演了重要的角色。在这篇文章中,我采用卷积神经网络表达相似图像对和不相似图像对的特征,然后采用欧拉距离测量特征矢量并估计相似度。其中,我采用的是类似于孪生网络的结构提取特征向量。在此之前,孪生网络已经成功运用到了图像的局部匹配领域和人脸对比验证,但是还没有应用于图像的大规模匹配。我通过大量实验验证,提出的图像匹配方法的性能远高于基线算法。这还是在我标注的标签质量很差的情况下,如果数据量更大,竞金标准更好,我可以获得更好的结果。

 

我的贡献主要表现在两个方面:

 

1. 基于深度神经网络,利用整幅图像预测图像对的相似性。

 

2.我验证了孪生网络在图像匹配中的潜力。

 

2. 结构、方法、细节

 

 

图 1. 模型结构。两个分支结构是一样的,权重分享。

 

我的目标在于为图像对学习一个广义的相似度测度函数。我采用了HybridCNN作为网络的核心组成部分。网络流程也很简单,一对图像分别通过神经网络分支,得到两幅图像在特征空间的特征向量。两个特征向量直接输送到损失函数层。注意的是,作者采用的损失函数依旧是[1,-1]是非类型。即,最小化匹配对的欧氏距离,最大化非匹配对的欧氏距离。

 

2.1 对比损失函数 constructive loss

 

 

为了优化我提出的网路,我设计了一个代价函数进行优化,该函数可以明显区分匹配对 / 非匹配对图像。更精确地,他鼓励相同的图像对特征空间的距离非常小,不相似的图像对至少具有m的距离。

 

l是图像对的标签 l+ = 1; l- = 0;m>0是非匹配对之间的间距;D=||f(I1)-f(I2)||是图像对在特征空间的欧氏距离。

 

只有非匹配对的欧氏距离小于m,非匹配对才会对损失函数起作用。损失函数鼓励匹配对在特征空间的距离非常的近,非匹配对在特征空间距离非常远。能够明显看出来,欧氏距离大于m的负样本对损失函数不起作用。

 

我在文章很多讨论都是针对如何确定一个合适的margin value m。

 

2.2 网络细节

 

我的网络架构收到了Ground-to-Aerial的启发。孪生网络包括两个相同的分支,它们之间共享权重和参数。每个分支都包括有卷积层、整流层作为非线性卷积层、以及全连接层。网络的动机就是为了学习到最优的特征表达映射。

 

3. 实验

 

 

图2. 我研究了不同的特征提取网络对模型性能的影响

 

Be First to Comment

发表评论

电子邮件地址不会被公开。 必填项已用*标注