fucda手表价格

2023-01-05 02:36:29 发布:网友投稿 作者:网友投稿
热度:91

整理:CV君


继目标检测篇之后,继续总结目标检测相关论文,包含无监督域适应、小样本、跨域、端到端、单阶、多目标、半监督等目标检测。 共计 28 篇。

大家可以在:

https://openaccess.thecvf.com/CVPR2021?day=all

按照题目下载这些论文。

如果想要下载所有CVPR 2021论文,请点击这里:

CVPR 2021 论文开放下载了!


无监督域适应目标检测


MeGA-CDA: Memory Guided Attention for Category-Aware Unsupervised Domain Adaptive Object Detection

文章中提出 memory-guided attention maps,用于实现域适应目标检测的类别分布匹配,此外,采用基于度量学习的方法计算类别特定的注意力maps,来提高记忆模块的有效性。 在几个基准数据集上的评估显示,以极大的优势优于近期的域适应检测方法。

作者 | Vibashan VS, Poojan Oza, Vishwanath A. Sindagi, Vikram Gupta, Vishal M. Patel

单位 | 约翰斯霍普金斯大学;MBRDI

论文 | https://arxiv.org/abs/2103.04224



Domain-Specific Suppression for Adaptive Object Detection


提出 domain-specific suppression 用于无监督域适应目标检测,比最先进的方法有明显改进,在所有这些域适应性场景中,MAP表现出10.2∼12.2% 的提升。

作者 | Yu Wang, Rui Zhang, Shuo Zhang, Miao Li, YangYang Xia, XiShan Zhang, ShaoLi Liu

单位 | 中科院;寒武纪;国科大

论文 | https://arxiv.org/abs/2105.03570


跨域弱监督目标检测


Informative and Consistent Correspondence Mining for Cross-Domain Weakly Supervised Object Detection

文中提出两个新模块:Informative Correspondence Mining(ICM)和 Correspondence Mining(CCM),用来解决跨域弱监督目标检测。 前者为局部语义迁移找到了信息丰富的跨域对应关系,而CCM将循环学习作为一致性正则器。 在各种数据集上的实验表明,所提出的方法与现有的方法相比,取得了相当大的改进。

作者 | Luwei Hou, Yu Zhang , Kui Fu, Jia Li

单位 | 北航;鹏城实验室;商汤

论文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Hou_Informative_and_Consistent_Correspondence_Mining_for_Cross-Domain_Weakly_Supervised_Object_CVPR_2021_paper.pdf

备注 | CVPR 2021 oral


端到端目标检测


Sparse R-CNN: End-to-End Object Detection with Learnable Proposals

Sparse R-CNN 在具有挑战性的 COCO 数据集上被证实具有与成熟检测器基线相当的精度、运行时间和训练收敛性能,例如,在标准的 3× 训练计划中实现了 44.5 AP,使用 ResNet-50 FPN 模型可以以 22 fps 的速度运行。

作者 | Peize Sun, Rufeng Zhang, Yi Jiang, Tao Kong, Chenfeng Xu, Wei Zhan等

单位 | 香港大学;同济大学;字节跳动;伯克利

论文 | https://arxiv.org/abs/2011.12450

代码 | https://github.com/PeizeSun/SparseR-CNN


End-to-End Object Detection with Fully Convolutional Network

作者 | Jianfeng Wang, Lin Song, Zeming Li, Hongbin Sun, Jian Sun, Nanning Zheng

单位 | 旷视;西安交通大学

论文 | https://arxiv.org/abs/2012.03544

代码 | https://github.com/Megvii-BaseDetection/DeFCN

解读 | https://zhuanlan.zhihu.com/p/332281368


Instant-Teaching: An End-to-End Semi-Supervised Object Detection Framework

InstantTeaching,是一个完全端到端的、有效的 SSOD 框架,在每次训练迭代中使用即时伪标注和扩展的弱-强数据增量进行教学。 通过进一步提出基于InstantTeaching 的协同纠正方案,Instant-Teaching,来缓解确认偏差问题,提高伪标注的质量。

在 MS-COCO 和 PASCAL VOC 数据集上的实验证明了所提出框架的优越性。 如,当使用 2% 的标记数据时,所提出方法在 MS-COCO 上超过了最先进的方法 4.2 mAP。 即使有 MS-COCO 的全部监督信息,仍然比最先进的方法高出约 1.0 mAP。 在 PASCAL VOC 上,通过应用 VOC07 作为标记数据和 VOC12 作为无标记数据,可以实现超过 5mAP 的改进。

作者 | Qiang Zhou, Chaohui Yu, Zhibin Wang, Qi Qian, Hao Li

单位 | 阿里

论文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Zhou_Instant-Teaching_An_End-to-End_Semi-Supervised_Object_Detection_Framework_CVPR_2021_paper.pdf


One-Stage目标检测


I^3Net: Implicit Instance-Invariant Network for Adapting One-Stage Object Detectors

Implicit Instance-Invariant Network(I3Net)是为适应 one-stage 检测器而制定,并通过利用不同层的深度特征的自然特性来隐式学习实例不变的特征。 实验表明,I3Net 在基准数据集上的性能超过了最先进水平。

作者 | Chaoqi Chen, Zebiao Zheng, Yue Huang, Xinghao Ding, Yizhou Yu

单位 | 香港大学;厦门大学;Deepwise AI Lab

论文 | https://arxiv.org/abs/2103.13757


多目标检测与跟踪


There is More than Meets the Eye: Self-Supervised Multi-Object Detection and Tracking with Sound by Distilling Multimodal Knowledge

通过蒸馏多模态知识用声音进行自监督的多目标检测和跟踪

作者 | Francisco Rivera Valverde, Juana Valeria Hurtado, Abhinav Valada

单位 | University of Freiburg

论文 | https://arxiv.org/abs/2103.01353


open-vocabulary 目标检测


Open-Vocabulary Object Detection Using Captions

本文中对目标检测问题提出新的表述:open-vocabulary object detection,比弱监督和零样本方法更普遍、更实用、更有效。 并提出一种新的方法 OVR-CNN,利用有限的物体类别的边界框标注来训练目标检测器,以及涵盖更多种类物体的 image-caption 对,而且成本明显降低。

实验结果表明,所提出的方法可以检测和定位在训练期间没有提供边界框标注的物体,其准确度明显高于零样本方法。 同时,有边界框标注的物体检测精度几乎与监督方法一样,明显优于弱监督的基线。 因此,为可扩展的目标检测建立了一个新的 SOTA。

作者 | Alireza Zareian, Kevin Dela Rosa, Derek Hao Hu, Shih-Fu Chang

单位 | Snap Inc;哥伦比亚大学

论文 | https://arxiv.org/abs/2011.10678

代码 | https://github.com/alirezazareian/ovr-cnn

备注 | CVPR 2021 oral


基于 ranking 的目标检测


RankDetNet: Delving into Ranking Constraints for Object Detection

提出一个基于 ranking 的目标检测的优化算法,并有 global ranking, class-specific ranking 和 IoU-guided ranking losses 三种 ranking 约束。

实验表明,RankDetNet 可以持续改善最先进的基于锚点和无锚点的二维检测基线和三维检测方法,并证明该方法的优越性和通用性。

作者 | Ji Liu, Dong Li, Rongzhang Zheng, Lu Tian, Yi Shan

单位 | 赛灵思

论文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Liu_RankDetNet_Delving_Into_Ranking_Constraints_for_Object_Detection_CVPR_2021_paper.pdf


跨域目标检测


Unbiased Mean Teacher for Cross-domain Object Detection

本次工作中,作者通过利用检测模型容易对源图像产生偏差这一视角对跨域目标检测这一问题进行了研究。 提出 Unbiased Mean Teacher(UMT),通过设计三种非常有效的策略来弥补模型的偏差。 具体来说,先引入 cross-domain 蒸馏,以最大限度地利用教师模型的专业知识;然后,通过像素级的适应来进一步增加学生模型的训练样本,以减少其模型偏差;最后, 利用 out-of-distribution 估计策略,选择最适合当前模型的样本来加强跨域蒸馏过程。

实验结果表明,UMT 以相对较大的幅度超过了现有的最先进的模型。 如,在基准数据集 Clipart1k、Watercolor2k、Foggy Cityscapes 和 Cityscapes上的 mAPs 分别达到了 44.1%、58.1%、41.7% 和 43.1%。

作者 | Jinhong Deng, Wen Li, Yuhua Chen, Lixin Duan

单位 | 电子科技大学;苏黎世联邦理工学院

论文 | https://arxiv.org/abs/2003.00707

代码 | https://github.com/kinredon/umt


RPN Prototype Alignment for Domain Adaptive Object Detector

文中提出一种用于跨域目标检测的新型 RPN 原型对齐方法,它强制两个域的 RPN 特征分别与前景和背景的可学习原型对齐。 具体来说,提出一种简单而有效的伪标签生成方法来指导目标域中 RPN 特征的学习。 此外,为了提高前景 RPN 特征的可辨别性,作者提出从 RPC 中生成注意力图来对 RPN 特征进行空间调制。

对不同场景的综合实验都验证了所提出方法的有效性。

作者 | Yixin Zhang ,Zilei Wang, Yushi Mao

单位 | 中国科学技术大学

论文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Zhang_RPN_Prototype_Alignment_for_Domain_Adaptive_Object_Detector_CVPR_2021_paper.pdf


半监督目标检测


Interpolation-based semi-supervised learning for object detection

文中提出基于 Interpolation 的用于目标检测的半监督学习方法,(ISD)。 考虑并解决了由传统的插值正则化(IR)直接应用于目标检测所引起的问题。

实验证明,在监督学习环境中,所提出方法以很大的幅度提高了基准方法。 在半监督学习环境中,该算法提高了基准架构(SSD)中基准数据集(PASCAL VOC和MSCOCO)的性能。

作者 | Jisoo Jeong, Vikas Verma, Minsung Hyun, Juho Kannala, Nojun Kwak

单位 | 首尔大学等

论文 | https://arxiv.org/abs/2006.02158

代码 | https://github.com/soo89/ISD-SSD


Data-Uncertainty Guided Multi-Phase Learning for Semi-Supervised Object Detection

本文为 半监督目标检测提出 data uncertainty guided multi-phase 学习方法。 可以使模型充分利用所有的信息和不确定性描述指导训练过程,使检测器集中于某些知识。 在 PASCAL VOC 和 MS COCO 数据集上结果达到 78.6%和 42.3%,分别超过最先进方法的 2.4% 和 2.2%。

作者 | Zhenyu Wang, Yali Li, Ye Guo, Lu Fang, Shengjin Wang

单位 | 清华大学

论文 | https://arxiv.org/abs/2103.16368


Points as Queries: Weakly Semi-supervised Object Detection by Points

文中提出 Point DETR,在 COCO 数据集上,仅使用 20% 完全标注的数据,检测器可达 33.3AP,超过基线 2.0AP。

作者 | Liangyu Chen、Tong Yang、Xiangyu Zhang、Wei Zhang、Jian Sun

单位 | 旷视】复旦大学

论文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Chen_Points_As_Queries_Weakly_Semi-Supervised_Object_Detection_by_Points_CVPR_2021_paper.pdf

简介 | 第六条


Interactive Self-Training with Mean Teachers for Semi-supervised Object Detection

文中提出一种交互式的自训练形式框架,使用 mean teachers 进行半监督的目标检测。 可以避免过度拟合,提高半监督目标检测的伪标签质量。 并在MS-COCO 和 PASCAL-VOC上的实验结果验证它的有效性。

作者 | Qize Yang, Xihan Wei, Biao Wang, Xian-Sheng Hua, Lei Zhang

单位 | 阿里;香港理工大学

论文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Yang_Interactive_Self-Training_With_Mean_Teachers_for_Semi-Supervised_Object_Detection_CVPR_2021_paper.pdf


Humble Teachers Teach Better Students for Semi-Supervised Object Detection

文中提出 humble teacher 方法用于半监督目标检测,在低数据和高数据状态下都优于以前的最先进水平。

作者 | Yihe Tang、 Weifeng Chen、Yijun Luo 、Yuting Zhang

单位 | 卡内基梅隆大学;亚马逊

论文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Tang_Humble_Teachers_Teach_Better_Students_for_Semi-Supervised_Object_Detection_CVPR_2021_paper.pdf


弱监督目标定位


Shallow Feature Matters for Weakly Supervised Object Localization

弱监督目标定位(WSOL)旨在仅利用图像级别的标签来定位目标。 CAMs 是实现 WSOL 的常用特征。 但以前基于 CAM 的方法并没有充分利用shallow 特征,尽管它们对WSOL很重要。 因为通过传统的融合,shallow 特征很容易被埋没在背景噪声中。

文中提出 Shallow feature-aware Pseudo supervised Object Localization(SPOL)模型,用于准确的 WSOL,它充分利用了嵌入浅层的低层次特征。 进一步提出 Gaussian prior pseudo label(GPPL)和类别无关的分割模型,以实现 WSOL 的更好的目标掩码。

实验结果表明,SPOL 在 CUB200 和 ImageNet-1K 基准上的表现超过了最先进的水平,分别达到了 93.44% 和 67.15%(即3.93%和2.13%的提高)的Top-5 定位精度。

作者 | Jun Wei,Qin Wang,Zhen Li,Sheng Wang,S.Kevin Zhou, Shuguang Cui

单位 | 香港中文大学(深圳);深圳市大数据研究院;中国科学技术大学;中科院;南方科技大学

论文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Wei_Shallow_Feature_Matters_for_Weakly_Supervised_Object_Localization_CVPR_2021_paper.pdf


Unveiling the Potential of Structure Preserving for Weakly Supervised Object Localization

基于结构信息保持的弱监督目标定位

作者 | Xingjia Pan, Yingguo Gao, Zhiwen Lin, Fan Tang, Weiming Dong, Haolei Yuan, Feiyue Huang, Changsheng Xu

单位 | 腾讯优图;吉林大学;中科院等

论文 | https://arxiv.org/abs/2103.04523

代码 | https://github.com/Panxjia/SPA_CVPR2021

简介 | 13


Strengthen Learning Tolerance for Weakly Supervised Object Localization

文中提出一种新型的分离式定位分类方法 SLT-Net,用于弱监督目标定位。 SLT-Net 通过加强对语义错误和数据分布多样性的学习容忍度来提高定位性能。 提出 class-tolerance 分类模块,以加强对语义分类错误的容忍度,它可以通过减少类似类别中错误分类的惩罚来缓解部分支配问题。 通过将转换后的图像的视觉反应图与原始图像的视觉反应图相匹配,加强对图像多样性的容忍度。

在细粒度数据集 CUB 和大规模数据集 ILSVRC2012 上进行的实验证明了所提方法的有效性。

作者 | Guangyu Guo, Junwei Han, Fang Wan, Dingwen Zhang

单位 | 西北工业大学;国科大

论文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Guo_Strengthen_Learning_Tolerance_for_Weakly_Supervised_Object_Localization_CVPR_2021_paper.pdf

主页 | https://nwpu-brainlab.gitee.io/index_en


密集目标检测


Generalized Focal Loss V2: Learning Reliable Localization Quality Estimation for Dense Object Detection

作者 | Xiang Li, Wenhai Wang, Xiaolin Hu, Jun Li, Jinhui Tang, Jian Yang

单位 | 南京理工大学;Momenta;南京大学;清华大学

论文 | https://arxiv.org/abs/2011.12885

代码 | https://github.com/implus/GFocalV2

解读 | 目标检测无痛涨点之 Generalized Focal Loss V2


VarifocalNet: An IoU-aware Dense Object Detector

作者 | Haoyang Zhang, Ying Wang, Feras Dayoub, Niko Sünderhauf

单位 | 昆士兰科技大学;昆士兰大学

论文 | https://arxiv.org/abs/2008.13367

代码 | https://github.com/hyz-xmaster/VarifocalNet

备注 | CVPR 2021 oral


Beyond Bounding-Box: Convex-hull Feature Adaptation for Oriented and Densely Packed Object Detection

提出 convex-hull representation,通过可学习的特征配置检测不规则形状和/或布局的物体。 又提出 convex-hull feature adaptation(CFA)方法,结合了 CIoU 和 feature antialiasing strategies,以及定义一种系统的方法来检测定向和密集的物体。

在 DOTA 和 SKU110KR 数据集上的实验表明,CFA 明显优于基线方法,取得了新的最先进检测性能。

作者 | Zonghao Guo, Chang Liu, Xiaosong Zhang, Jianbin Jiao, Xiangyang Ji,Qixiang Ye

单位 | 国科大;清华

论文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Guo_Beyond_Bounding-Box_Convex-Hull_Feature_Adaptation_for_Oriented_and_Densely_Packed_CVPR_2021_paper.pdf


无监督目标检测


Unsupervised Object Detection With LIDAR Clues

作者 | Hao Tian, Yuntao Chen, Jifeng Dai, Zhaoxiang Zhang, Xizhou Zhu

单位 | 商汤;中国科学院大学等

论文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Tian_Unsupervised_Object_Detection_With_LIDAR_Clues_CVPR_2021_paper.pdf


伪装目标检测


Mutual Graph Learning for Camouflaged Object Detection

问题:对于目前的模型来说,自动检测/分割与周围环境融为一体的物体是非常困难的。 一个主要原因是前景物体和背景环境之间的内在相似性使得深度模型所提取的特征无法区分。

方案:设计了 Mutual Graph Learning(MGL)模型,将传统的相互学习理念从常规的网格推广到图域。 具体来说,MGL 将一幅图像解耦为两个特定任务的特征图:一个用于大致定位,另一个用于准确捕捉其边界细节,并通过图形对它们的高阶关系进行反复推理,充分挖掘它们的相互优势。 重要的是,与大多数使用共享函数来模拟所有任务间互动的相互学习方法相比,MGL配备了处理不同互补关系的类型化函数,以最大化信息互动。

结果:在包括 CHAMELEON、CAMO 和 COD10K 上的实验,证明了 MGL 的有效性,以及其性能优于现有的先进方法。

作者 | Qiang Zhai, Xin Li, Fan Yang, Chenglizhao Chen, Hong Cheng, Deng-Ping Fan

单位 | 电子科技大学;G42;青岛大学;IIAI

论文 | https://arxiv.org/abs/2104.02613

代码 | https://github.com/fanyang587/MGL


玻璃表面检测


Rich Context Aggregation With Reflection Prior for Glass Surface Detection

文中提出一个新模型,用于 glass surface detection。 它由两个模块组成:一个是 Rich Context Aggregation Module (RCAM),用于多尺度边界特征提取;另一个是 Reflection-based Refinement Module (RRM),用于提取玻璃反射。 并构建了一个具有挑战性的玻璃表面数据集,由 4,012 张来自不同的场景带有玻璃表面掩膜的真实世界图像组成。

实验表明,所提出的模型优于相关领域的最先进方法。

作者 | Jiaying Lin ,Zebang He ,Rynson W.H. Lau

单位 | 香港城市大学

论文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Lin_Rich_Context_Aggregation_With_Reflection_Prior_for_Glass_Surface_Detection_CVPR_2021_paper.pdf


阴影检测


Single-Stage Instance Shadow Detection with Bidirectional Relation Learning

Instance Shadow Detection 的目的是找到 shadow instances, object instances 和 shadow-object 的关联,在光向估计和照片编辑中都有应用。

文中提出一个单阶全卷积网络架构,其中有一个双向关系学习模块,以端到端的方式直接学习阴影和物体实例的关系。

并在基准数据集上对该方法进行了评估,结果表明,优于最先进的方法。

作者 | Tianyu Wang, Xiaowei Hu, Chi-Wing Fu、Pheng-Ann Heng

单位 | 港中文;中科院

论文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Wang_Single-Stage_Instance_Shadow_Detection_With_Bidirectional_Relation_Learning_CVPR_2021_paper.pdf

代码 | https://github.com/stevewongv/SSIS

备注 | CVPR 2021 Oral


Triple-cooperative Video Shadow Detection

本次的研究工作共有两个贡献。 其一是收集了一个学习型视频阴影检测(ViSha)数据集,其中包含 120 个视频,11,685 帧,涵盖各种物体和场景,具有像素级的阴影标注。 其二是开发了一个用于视频阴影检测的新型网络,通过学习阴影的视频内和视频间的鉴别特性。

实验证明所提出方法始终比 12 种最先进的方法有很大的优势。 并且作者称是个用于视频阴影检测的标注数据集,ViSha 数据集可以促进视频阴影检测的进一步研究。

作者 | Zhihao Chen, Liang Wan, Lei Zhu, Jia Shen, Huazhu Fu, Wennan Liu, Jing Qin

单位 | 天津大学;剑桥大学;起源人工智能研究院;香港理工大学

论文 | https://arxiv.org/abs/2103.06533

代码 | https://github.com/eraserNut/ViSha


- END -

编辑:CV君

转载请联系本公众号授权

下一篇:驾驶证的照片可以换吗(驾驶证照片模板)
上一篇:胃出血做手术要多少钱(胃出血手术一般要做多久)