【AAAI2022】Efficient Non
前言
本文意不在与翻译,在于解读文章,望周知~
关于文章的点评以及可借鉴到自己论文实验的idea,在文末给出
0、论文的Motivation
- 虽然非局部注意力
(Non-Local Attention, NLA)
机制可利用自然图像中的内在特征关联信息去提升SISR任务的性能,但是它给噪声信息也会赋予较大的权重,这影响了模型最终的性能,同时其消耗的资源与输入成二次方的关系,这阻碍了其在SR领域中的应用。 - 针对NLA这点不足,文中提出了一种
efficient
类型的非局部对比注意力(Efficient Non-Local Contrastive Attention,ENLCA
)来完成场距离的视觉建模,以及利用更多相关的非局部特征。- 至于为什么本文不直接说高效的,且听下文分解~
ENLCA
主要有两个部分:Efficient Non-Local Attention (ENLA)
:用核方法去逼近指数函数。Sparse Aggregation
:用一个放大系数去乘以输入,以达到更加关注携带丰富信息的特征(informative feature
),而近似值的方差呈指数增长的趋势。
- 使用对比学习(
contrastive learning
)以进一步将无关的特征分离&
发布评论