一种基于注意力平衡的细粒度图像识别方法及其系统与流程

专利2022-05-10  49



1.本技术涉及计算机领域,尤其涉及一种基于注意力平衡的细粒度图像识别方法及其系统。


背景技术:

2.细粒度图像识别是计算机视觉领域十分重要的研究方向。细粒度图像分类任务是指对某一类别下的多个下级类别进行分类,其主要难度在于数据的类间方差小、类内方差大。随着计算机视觉算法的落地实施,由于实际生产中的分类任务往往集中于某一特定领域,如金属表面缺陷识别、植物病虫害识别以及生产线质量检测等,导致细粒度图像识别任务及其研究受到越来越多的关注。细粒度图像分类的主要难度在于数据的类间方差小、类内方差大。其中,类间差异小是指所有类别同属于某一个大类,通常只存在细微的差别;类内差异大是指同一个类别的样本之间因为角度、背景以及样本本身的多样性,导致聚类十分困难。上述的两个问题使得模型在学习的过程中极易混淆相近的类别。早期的技术主要依靠人为引入额外的监督信息来指导并帮助模型提高对关键位置的识别。随着神经网络的发展,很多模型只需要图像级的监督信息就能达到超越先前方法的识别能力。并且随着各种注意力机制的引入,模型对于关键区域的识别能力也得到了进一步提高。
3.为了能够识别出相似类别之间细微的差距,大部分模型通过设计复杂的特征提取器或者加入大量的注意力结构来提升模型对关键特征的提取能力。这不仅使模型的参数量显著增加,这也导致了模型最终只会根据局部的关键特征来对类别进行区分(以鸟类为例,对于相似的鸟类,模型最后的评判标准通常只有嘴巴,眼睛等局部位置,对于鸟类本身,模型往往不再关注)。虽然模型的识别精度得到了一定程度的提升,但是也降低了模型对噪声的抑制能力。对于高质量的数据,模型能够精准定位关键部位,做出正确的识别,但对于背景噪声较大的数据,过度关注关键区域也会削弱模型的鲁棒性,造成模型的过拟合。
4.综上,如何提供一种有效的细粒度图像识别方法,是本领域人员急需要解决的技术问题。


技术实现要素:

5.基于此,本技术针对现有技术,提出了一种基于注意力平衡的细粒度图像识别方法。该方法提出对目前细粒度图像识别模型中的注意力机制进行平衡优化,从而提高模型对噪声的抑制能力,然后进一步提取出更高质量的关键特征。将高质量的特征用于最终的识别,从而提高细粒度图像识别精度和鲁棒性。
6.为了达到上述目的,本技术提供了一种基于注意力平衡的细粒度图像识别方法,包括如下步骤:进行模型的初始化,将输入数据输入至模型中;将输入数据传输至模型后,获取注意力模块的输入特征;根据获取的输入特征进行卷积神经网络模型的训练;根据训练后的卷积神经网络模型进行输入数据的预测识别,并输出预测结果。
7.如上的,其中,根据获取的输入特征进行卷积神经网络模型的训练,包括以下子步
骤:将输入特征输入分别输入注意力模块,通过全局平均池化获取通道注意力;将获得的通道注意力分别加权到nl模块输出的特征矩阵上,保存卷积神经网络模型提取的原有的关键特征。
8.如上的,其中,通过全局平均池化方法计算特征矩阵f中每个通道对应特征图的平均值来获取通道的注意力权重β=[β1,...,β
c
],其中通道c通过全局平均池化方法计算得到对应的注意力权重β
c
如下:
[0009][0010]
其中h,w分别代表特征图的高度、宽度,f
c
∈r
h
×
w
表示特征矩阵f的通道对应的特征图,f
c
(i,j)表示特征图上对应(i,j)位置的点,i、j分别表示该点在特征图上横坐标和纵坐标的值。
[0011]
如上的,其中,将获得的当前nl模块对应的通道注意力β
c
加权到特征矩阵f上,得到保留了原有关键特征的特征矩阵
[0012]
如上的,其中,根据获取的输入特征进行卷积神经网络模型的训练,还包括以下子步骤:获取注意力权重;对获得的注意力权重进行处理,得到注意力图;对注意力图进行抑制处理;将抑制之后的注意力图加权到输入特征的特征矩阵中,进行输入特征的抑制,并再次提取新的特征。
[0013]
如上的,其中,通过全局最大池化方法计算每个通道对应特征图中的最大值,获取所有通道的注意力权重α=[α1,...,α
c
],其中通道c对应的注意力权重α
c
如下:
[0014]
α
c
=max({f
c
(i,j)i∈[1,h],j∈[1,w]})
[0015]
其中,f
c
∈r
h
×
w
表示特征矩阵f的通道c对应的特征图,f
c
(i,j)表示特征图上对应(i,j)位置的点,h,w分别代表特征图的高度、宽度。
[0016]
如上的,其中,将全局最大池化的加权结果进一步处理,将所有通道求平均值以及归一化,获得保存位置响应程度的注意力图。
[0017]
如上的,其中,使用softmax方法对通道权重进行归一化并进一步增强高响应通道的权重,归一化处理过程表示为α=[α1,...,α
c
]表示所有通道的注意力权重。
[0018]
如上的,其中,注意力图表示为:
[0019][0020]
其中c表示特征图的数量,表示归一化后通道c对应的注意力权重,f
c
∈r
h
×
w
表示特征矩阵f的通道c对应的特征图。
[0021]
一种基于注意力平衡的细粒度图像识别系统,具体包括,图像识别单元,预测输出单元;其中图像识别单元执行上述任一项的方法;其中图像识别单元包括卷积神经网络模
型和多个注意力模块。
[0022]
本技术具体以下有益效果:
[0023]
(1)本实施例提供的一种基于注意力平衡的细粒度图像识别方法及其系统,针对细粒度图像识别中注意力过度关注局部的关键位置,可能会忽略很多有价值的信息的问题,从而提出了注意力分散方法,可以有效地抑制模型对局部位置的过度关注,同时抑制了噪声的影响,使模型能够从数据中提取出更多有价值的特征信息,提升模型的鲁棒性。
[0024]
(2)本实施例提供的一种基于注意力平衡的细粒度图像识别方法及其系统,将注意力增强模块能够与注意力分散模块相结合,首先能够保留模型原有的特征提取能力,避免模型因为注意力的分散导致欠拟合问题。且该模块能够将新旧特征进行融合和压缩,充分提取有价值的特征信息,提高模型的识别精度。
[0025]
(3)本实施例提供的一种基于注意力平衡的细粒度图像识别方法及其系统,以细粒度图像识别模型原本的网络结构为基础,该方法可以应用于任何卷积神经网络结构和以卷积神经网络为基础的注意力结构,降低了使用难度。
附图说明
[0026]
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
[0027]
图1是本技术提出的一种基于注意力平衡的细粒度图像识别系统的示意图;图2是本技术提出的一种基于注意力平衡的细粒度图像识别方法流程图;。
具体实施方式
[0028]
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0029]
如图1所示,为本技术提供的一种基于注意力平衡的细粒度图像识别系统,该系统包含图像识别单元110,预测输出单元120。
[0030]
其中图像识别单元110具体为细粒度图像识别模型的骨干网络,用于进行图像的预测识别。细粒度图像识别模型具体由卷积神经网络模型和多个注意力模块(简称nl模块)组成。
[0031]
其中,卷积神经网络模型为现有技术中的经典网络模型,具体不再进行赘述。
[0032]
其中,设卷积神经网络模型某一中间层(或模块)block的输入特征矩阵为i,输出特征矩阵为f∈r
h
×
w
×
c
,其中h,w,c分别代表特征图的高度、宽度以及通道数量。
[0033]
其中,注意力模块为多个,每个注意力模块中均包括一个注意力分散模块和一个注意力增强模块。
[0034]
其中注意力分散模块用来抑制模型的高响应区域并捕获更多有价值的特征。
[0035]
注意力增强模块与注意力分散模块连接,用于保存模型原本提取的特征,并通过
特征融合方法进一步提取有效特征。
[0036]
进一步地,卷积神经网络模型的分类器由全局平均池化层、全连接层和归一化函数组成。
[0037]
优选地,本实例中训练卷积神经网络模型使用的数据集为cub

200

2011数据集,该数据集是由加州理工学院在2010年提出的细粒度数据集,也是目前细粒度分类识别研究的基准图像数据集。该数据集共有11788张鸟类图像,包含200类鸟类子类,其中训练数据集有5994张图像,测试集有5794张图像,每张图像均提供了图像类标记信息。
[0038]
预测输出单元120与图像识别单元110连接,用于将图像识别单元的图像的预测识别结果进行输出。
[0039]
如图2所示,为本技术提供的一种基于注意力平衡的细粒度图像识别方法流程图。
[0040]
步骤s210:进行细粒度图像识别模型的初始化,将输入数据输入至细粒度图像识别模型中。
[0041]
其中,将细粒度图像识别模型的参数初始化为预训练的参数,完成细粒度图像识别模型的初始化。
[0042]
其中该输入数据为训练数据集中的数据。
[0043]
步骤s220:将输入数据传输至细粒度图像识别模型后,获取注意力模块的输入特征。
[0044]
将输入数据输入模型后,细粒度图像识别模型中的卷积神经网络模型将输入的训练数据并进行前向传播,传播至每个nl模块但未输入nl模块时的训练数据为该注意力模块输入特征。
[0045]
步骤s230:根据获取的输入特征进行卷积神经网络模型的训练。
[0046]
其中,设卷积神经网络模型某一中间层(或模块)block的输入特征矩阵为i∈r
h
×
w
×
c
,输出特征矩阵为f∈r
h
×
w
×
c
,其中h,w,c分别代表特征矩阵的高度、宽度以及通道数量,f
c
∈r
h
×
w
表示特征矩阵f的通道c对应的特征图,其中通道数表示了nl模块输出特征矩阵f的深度。
[0047]
其中步骤s230具体包括以下子步骤:
[0048]
步骤s2301:获取卷积神经网络模型提取的关键特征。
[0049]
为了能够抑制卷积神经网络模型对于细粒度区域的过高响应,本方法设计了注意力增强模块,对卷积神经网络模型中的注意力结构提取的特征进行处理,保存卷积神经网络模型提取的原本特征。
[0050]
具体地,由于nl模块有多个,因此需要获取并保存每一个nl模块的注意力图。因此对于每个nl模块,均需要执行以下子步骤。
[0051]
步骤s23011:将输入特征输入当前nl模块,通过全局平均池化获取通道注意力。
[0052]
具体地,将输入特征通过每个nl模块,提取特征矩阵,然后将特征矩阵分别通过全局平均池化,获取每个nl模块的通道对应的注意力权重。
[0053]
其中,每个nl模块中的注意力增强模块通过全局平均池化方法计算特征矩阵f中每个通道对应特征图的平均值来获取通道的注意力权重β=[β1,...,β
c
],其中通道c通过全局平均池化方法计算得到对应的注意力权重β
c
如下:
[0054][0055]
其中,f
c
∈r
h
×
w
表示特征矩阵f的通道c对应的特征图,f
c
(i,j)表示特征图上对应(i,j)位置的点。
[0056]
步骤s23012:将获得的通道注意力分别加权到nl模块输出的特征矩阵上,保存卷积神经网络模型提取的原有的关键特征。
[0057]
具体地,将获得的当前nl模块对应的通道注意力β
c
加权到特征矩阵f上,得到保留了原有关键特征的特征矩阵通过该方法,将每个nl模块对应的特征矩阵
[0058]
步骤s2302:根据输入特征获取提取新的特征信息。
[0059]
具体地,由于nl模块有多个,因此需要获取并保存每一个nl模块的注意力图。因此对于每个nl模块,均需要执行以下子步骤。
[0060]
其中步骤s2302具体包括以下子步骤:
[0061]
步骤s23021:将输入特征输入当前nl模块,获取注意力权重。
[0062]
具体地,将输入特征通过当前nl模块,提取特征矩阵,然后将特征矩阵通过全局平均池化,获取通道对应的注意力权重。
[0063]
其中,注意力分散模块通过全局最大池化方法计算每个通道对应特征图中的最大值,获取所有通道的注意力权重α=[α1,...,α
c
],其中通道c对应的权重α
c
如下:
[0064]
α
c
=max({f
c
(i,j)i∈[1,h],j∈[1,w]})
[0065]
其中,f
c
∈r
h
×
w
表示特征矩阵f的通道c对应的特征图,f
c
(i,j)表示特征图上对应(i,j)位置的点。
[0066]
步骤s23022:对获得的注意力权重进行处理,得到注意力图。
[0067]
其中,将获得的通道注意力分别加权到nl模块输出的特征矩阵上。注意力分散模块将全局最大池化的加权结果进一步处理,将所有通道求平均值以及归一化,获得保存位置响应程度的注意力图。
[0068]
具体地,使用softmax方法对通道的注意力权重进行归一化并进一步增强高响应通道的权重。归一化处理过程表示为
[0069]
将得到的通道注意力权重加权到特征矩阵f对应通道的特征图,并进行平均求和,得到注意力图上对应每个位置的响应权重f
max

[0070][0071]
表示归一化后通道c对应的注意力权重,f
c
∈r
h
×
w
表示特征矩阵f的通道c对应的特征图,c表示特征图的数量。
[0072]
其中,高权重代表该位置是模型的高响应区域,低权重代表该位置是模型的低响应区域。
[0073]
然后,对f
max
进行归一化,得到注意力图,在对f
max
进行归一化之前,还包括,若卷积神经网络中进行了多次降维操作,则需要先对f
max
进行上采样,然后对f
max
进行归一化处理。
若卷积神经网络不涉及多次降维操作,则直接进行归一化处理。
[0074]
其中注意力图表示为:
[0075][0076]
其中e表示指数,f
max
表示注意力图上对应每个位置的响应权重。
[0077]
步骤s23023:对注意力图进行抑制处理。
[0078]
其中,通过注意力分散模块将获得的注意力图的高响应位置进行抑制。
[0079]
具体地,将中权重较高的区域进行抑制,得到削弱的注意力响应图f
weak
∈r
h
×
w
,然后对于f
weak
上的每一个位置的权重,做如下处理:
[0080][0081]
其中,λ越小对高响应区域的抑制程度越高,越小对高相应区域的抑制范围越大。
[0082]
步骤s23024:将抑制之后的注意力图加权到输入特征的特征矩阵中,进行输入特征的抑制,并将抑制之后的输入特征矩阵再次输入nl模块,提取新的特征。
[0083]
具体地,将f
weak
加权到输入特征矩阵i上,并再次通过原本的网络结构,获得新的特征矩阵
[0084][0085]
其中,表示hadar积,broadcast表示广播操作,由于i∈r
h
×
w
×
c
,f
weak
∈r
h
×
w
,需要通过broadcast实现对特征图的对位相乘。
[0086]
步骤s2303:将提取的新的特征与保存的关键特征进行拼接,提取有效特征信息。
[0087]
其中,将每个nl模块得到的新的特征与全局平均池化保存的关键特征进行拼接,再通过1
×
1卷积进行通道压缩,进一步提取有效特征。
[0088]
具体地,为了更加有效地进行特征融合,在提取有价值的特征的同时,尽量将无用的特征和干扰去除,本实施例提出先将与注意力分散模块输出的特征矩阵在通道维度c上进行拼接,保证新旧特征不丢失,得到融合了新旧特征信息的特征矩阵f
mix
∈r
h
×
w
×
2c

[0089]
然后将f
mix
通过步长为1,输出通道数为c,卷积核为1
×
1的卷积层,对特征信息进行压缩,从而进一步提取有效特征信息,将得到的特征矩阵作为当前网络层的最终输出特征矩阵
[0090]
步骤s2304:提取有效特征信息对应的注意力图。
[0091]
以当前注意力增强模块的输出特征矩阵为例,通过全局平均池化方法计算特征矩阵中每个通道对应特征图的平均值来获取通道的响应权重λ=[λ1,...,λ
c
],其中通道c通过全局平均池化方法计算得到对应的注意力权重λ
c
如下:
[0092][0093]
其中使用soft max方法对通道的响应权重进行归一化处理,
[0094]
其中提取有效特征信息对应的注意力图m具体表示为:
[0095][0096]
其中,该注意力图m为当前注意力增强模块最终保存的注意力图,f
c
∈r
h
×
w
表示特征矩阵f的通道c对应的特征图,c表示特征图的数量,表示归一化后通道c对应的注意力权重。
[0097]
具体地,提取的注意力图表示为:
[0098]
m={m1,...m
n
},其中m1表示两次降维之间的第一个注意力增强模块的输出注意力图,n表示两次降维之间注意力增强模块的数量。
[0099]
其中第一个注意力增强模块为多个nl模块中第一个nl模块中包括的注意力增强模块。
[0100]
步骤s2305:将提取的注意力图进行多尺度信息的融合。
[0101]
其中,将每个nl模块的最终保存的注意力图加权到模型最后的输出特征矩阵,进行多尺度信息的融合。
[0102]
其中融合后的注意力图m
mix
表示为:
[0103][0104]
其中,downsampling表示对融合后的注意力图进行下采样,使其与降维后的模块尺寸相同,然后在最终的分类器之前,m
mix
加权到最后的特征矩阵,从而完成多尺度信息的融合,k为两次降维之间注意力增强模块的索引,n表示两次降维之间注意力增强模块的数量,m
k
表示两次降维之间的第k个注意力增强模块的输出注意力图。
[0105]
将得到的新特征与原有特征进行融合,从而达到抑制背景噪声与提高卷积神经网络模型特征提取能力的目的。
[0106]
步骤s2306:将融合了多尺度信息的特征输入到剩余的卷积神经网络模型中,进行分类预测,得到预测结果。
[0107]
其中预测结果为预测的输入数据的类别,其中类别指该输入数据的图像为哪种类别的图像,例如是否为鸟类图像或其他类图像。
[0108]
步骤s2307:判断预测结果与输入数据的真实类别的差异,进行卷积神经网络模型参数的更新。
[0109]
重复执行步骤s2201

2207,直至卷积神经网络模型参数收敛,保存当前得到的卷积神经网络模型的参数,卷积神经网络模型训练完成。
[0110]
步骤s240:根据训练后的卷积神经网络模型进行输入数据的预测识别,并输出预测结果。
[0111]
其中,该步骤中的输入数据为需要进行预测的数据。
[0112]
响应于步骤s220完成了对卷积神经网络模型的训练,本步骤中,采用训练好的模型进行输入数据的最终预测识别。
[0113]
其中预测的步骤为再次执行步骤s210

s230。
[0114]
具体地,首先进行步骤s210的模型的初始化,通过步骤s220将输入数据输入至模型中进行预测识别,在将输入数据输入至模型后,为了能够抑制细粒度图像识别模型对于细粒度区域的过高响应,步骤s230中利用注意力分散模块对卷积神经网络模型中的注意力结构提取的特征进行处理,得到注意力图,然后对注意力图中的高响应区域进行抑制,并将抑制后的结果重新加入到卷积神经网络模型中的注意力结构进行循环训练,促使细粒度图像识别模型发掘更多有价值的特征,降低卷积神经网络模型对于高响应区域的敏感程度,从而降低噪声的影响。
[0115]
为避免注意力的抑制影响卷积神经网络模型的收敛性能,步骤s230中通过注意力增强模块保存了原有的关键特征,并将循环训练提取到的新特征与原有的关键特征进行融合,进一步提取更高质量的特征。最后,将高质量的特征用于最终的识别,提高细粒度图像识别精度和鲁棒性。从而提供了更加精准的预测结果。
[0116]
本技术具体以下有益效果:
[0117]
(1)本实施例提供的一种基于注意力平衡的细粒度图像识别方法及其系统,针对细粒度图像识别中注意力过度关注局部的关键位置,可能会忽略很多有价值的信息的问题,本发明提出的注意力分散方法可以有效地抑制模型对局部位置的过度关注,从而提出了注意力分散方法,可以有效地抑制模型对局部位置的过度关注,同时抑制了噪声的影响,使模型能够从数据中提取出更多有价值的特征信息,提升模型的鲁棒性。
[0118]
(2)本实施例提供的一种基于注意力平衡的细粒度图像识别方法及其系统,将注意力增强模块能够与注意力分散模块相结合,首先能够保留模型原有的特征提取能力,避免模型因为注意力的分散导致欠拟合问题。且该模块能够将新旧特征进行融合和压缩,充分提取有价值的特征信息,提高模型的识别精度。
[0119]
(3)本实施例提供的一种基于注意力平衡的细粒度图像识别方法及其系统,以细粒度图像识别模型原本的网络结构为基础,该方法可以应用于任何卷积神经网络结构和以卷积神经网络为基础的注意力结构,降低了使用难度。
[0120]
以上所述实施例,仅为本技术的具体实施方式,用以说明本技术的技术方案,而非对其限制,本技术的保护范围并不局限于此,尽管参照前述实施例对本技术进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本技术揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特殊进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本技术实施例技术方案的精神和范围。都应涵盖在本技术的保护范围之内。因此,本技术的保护范围应所述以权利要求的保护范围为准。
转载请注明原文地址:https://doc.8miu.com/read-1719134.html

最新回复(0)