CoTNet重磅开源京东AIRes

0

写在前面

基于Self-Attention的Transformer结构,首先在NLP任务中被提出,最近在CV任务中展现出了非常好的效果。然而,大多数现有的Transformer直接在二维特征图上的进行Self-Attention,基于每个空间位置的query和key获得注意力矩阵,但相邻的key之间的上下文信息未得到充分利用。

本文设计了一种新的注意力结构CoTBlock,这种结构充分利用了key的上下文信息,以指导动态注意力矩阵的学习,从而增强了视觉表示的能力。作者将CoTBlock代替了ResNet结构中的x卷积,来形成CoTNet,最终在一系列视觉任务(分类、检测、分割)上取得了非常好的性能,此外,CoTNet在CVPR上获得开放域图像识别竞赛冠军。

论文和代码地址

论文


转载请注明:http://www.shhjfk.com/zytd/zytd/13605.html

  • 上一篇文章:
  •   
  • 下一篇文章: 没有了