深度学习的Attenton机制

简介

​ 通常在计算机视觉的深度学习算法中,Attention机制基本思想是让系统学会注意力,可以自动关注那些我们希望它关注的重点信息。

Attention

​ 通常Attention机制被分为soft attention和hard attention,目前接触的算法通常都是soft attention机制。

Soft Attention

空间域

​ 空间注意力表现在模型对于图像的不同位置的关注程度不同。当特征图大小为 H×W×C,空间注意力对应着大小为H×W的矩阵,该矩阵的每个位置对原特征图对应位置的像素来讲就是一个权重,pixel-wise multiply。

img

通道域

​ 这种注意力主要分布在channel中,相当于对图像的不同通道的关注程度不同。当特征图大小为 H×W×C,通道注意力对应着大小为1×1×C的矩阵,每个位置对应原channel图像全部像素的一个权重,channel-wise multiply。

img


   转载规则


《深度学习的Attenton机制》 Severus 采用 知识共享署名 4.0 国际许可协议 进行许可。
 上一篇
《稀缺》解读 《稀缺》解读
为什么穷人越穷,富人越富?怎样才能摆脱稀缺心态,摆脱贫穷。 稀缺的构成作者认为长期的贫穷会带来一种稀缺心态。稀缺心态有个好处,会带来专注红利:短时间内集中精力爆发出高度注意力,比如Deadline之前的几天,是工作效率最高的时候;再比如永远
2019-08-24 Severus
下一篇 
Leetcode.155 Leetcode.155
155.最小栈 设定一个辅助栈,用来存放stack中最小值: push:每当push新值进来时,如果“小于等于”min_stack栈顶值,则一起push到min_stack,即更新了最小值; pop:判断pop出去的元素值是否是min_st
2019-08-12 Severus
  目录