科技改變生活 · 科技引領(lǐng)未來
整理:CV君繼目標(biāo)檢測篇之后,繼續(xù)總結(jié)目標(biāo)檢測相關(guān)論文,包含無監(jiān)督域適應(yīng)、小樣本、跨域、端到端、單階、多目標(biāo)、半監(jiān)督等目標(biāo)檢測。共計(jì)28篇。大家可以在:https://openaccess.thecvf.com/CVPR2021?day=a
整理:CV君
繼目標(biāo)檢測篇之后,繼續(xù)總結(jié)目標(biāo)檢測相關(guān)論文,包含無監(jiān)督域適應(yīng)、小樣本、跨域、端到端、單階、多目標(biāo)、半監(jiān)督等目標(biāo)檢測。共計(jì) 28 篇。
大家可以在:
https://openaccess.thecvf.com/CVPR2021?day=all
按照題目下載這些論文。
如果想要下載所有CVPR 2021論文,請(qǐng)點(diǎn)擊這里:
CVPR 2021 論文開放下載了!
無監(jiān)督域適應(yīng)目標(biāo)檢測
MeGA-CDA: Memory Guided Attention for Category-Aware Unsupervised Domain Adaptive Object Detection
文章中提出 memory-guided attention maps,用于實(shí)現(xiàn)域適應(yīng)目標(biāo)檢測的類別分布匹配,此外,采用基于度量學(xué)習(xí)的方法計(jì)算類別特定的注意力maps,來提高記憶模塊的有效性。在幾個(gè)基準(zhǔn)數(shù)據(jù)集上的評(píng)估顯示,以極大的優(yōu)勢優(yōu)于近期的域適應(yīng)檢測方法。
作者 | Vibashan VS, Poojan Oza, Vishwanath A. Sindagi, Vikram Gupta, Vishal M. Patel
單位 | 約翰斯霍普金斯大學(xué);MBRDI
論文 | https://arxiv.org/abs/2103.04224
Domain-Specific Suppression for Adaptive Object Detection
提出 domain-specific suppression 用于無監(jiān)督域適應(yīng)目標(biāo)檢測,比最先進(jìn)的方法有明顯改進(jìn),在所有這些域適應(yīng)性場景中,MAP表現(xiàn)出10.2~12.2% 的提升。
作者 | Yu Wang, Rui Zhang, Shuo Zhang, Miao Li, YangYang Xia, XiShan Zhang, ShaoLi Liu
單位 | 中科院;寒武紀(jì);國科大
論文 | https://arxiv.org/abs/2105.03570
跨域弱監(jiān)督目標(biāo)檢測
Informative and Consistent Correspondence Mining for Cross-Domain Weakly Supervised Object Detection
文中提出兩個(gè)新模塊:Informative Correspondence Mining(ICM)和 Correspondence Mining(CCM),用來解決跨域弱監(jiān)督目標(biāo)檢測。前者為局部語義遷移找到了信息豐富的跨域?qū)?yīng)關(guān)系,而CCM將循環(huán)學(xué)習(xí)作為一致性正則器。在各種數(shù)據(jù)集上的實(shí)驗(yàn)表明,所提出的方法與現(xiàn)有的方法相比,取得了相當(dāng)大的改進(jìn)。
作者 | Luwei Hou, Yu Zhang , Kui Fu, Jia Li
單位 | 北航;鵬城實(shí)驗(yàn)室;商湯
論文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Hou_Informative_and_Consistent_Correspondence_Mining_for_Cross-Domain_Weakly_Supervised_Object_CVPR_2021_paper.pdf
備注 | CVPR 2021 oral
端到端目標(biāo)檢測
Sparse R-CNN: End-to-End Object Detection with Learnable Proposals
Sparse R-CNN 在具有挑戰(zhàn)性的 COCO 數(shù)據(jù)集上被證實(shí)具有與成熟檢測器基線相當(dāng)?shù)木取⑦\(yùn)行時(shí)間和訓(xùn)練收斂性能,例如,在標(biāo)準(zhǔn)的 3× 訓(xùn)練計(jì)劃中實(shí)現(xiàn)了 44.5 AP,使用 ResNet-50 FPN 模型可以以 22 fps 的速度運(yùn)行。
作者 | Peize Sun, Rufeng Zhang, Yi Jiang, Tao Kong, Chenfeng Xu, Wei Zhan等
單位 | 香港大學(xué);同濟(jì)大學(xué);字節(jié)跳動(dòng);伯克利
論文 | https://arxiv.org/abs/2011.12450
代碼 | https://github.com/PeizeSun/SparseR-CNN
End-to-End Object Detection with Fully Convolutional Network
作者 | Jianfeng Wang, Lin Song, Zeming Li, Hongbin Sun, Jian Sun, Nanning Zheng
單位 | 曠視;西安交通大學(xué)
論文 | https://arxiv.org/abs/2012.03544
代碼 | https://github.com/Megvii-baseDetection/DeFCN
解讀 | https://zhuanlan.zhihu.com/p/332281368
Instant-Teaching: An End-to-End Semi-Supervised Object Detection framework
InstantTeaching,是一個(gè)完全端到端的、有效的 SSOD 框架,在每次訓(xùn)練迭代中使用即時(shí)偽標(biāo)注和擴(kuò)展的弱-強(qiáng)數(shù)據(jù)增量進(jìn)行教學(xué)。通過進(jìn)一步提出基于InstantTeaching 的協(xié)同糾正方案,Instant-Teaching,來緩解確認(rèn)偏差問題,提高偽標(biāo)注的質(zhì)量。
在 MS-COCO 和 PASCAL VOC 數(shù)據(jù)集上的實(shí)驗(yàn)證明了所提出框架的優(yōu)越性。如,當(dāng)使用 2% 的標(biāo)記數(shù)據(jù)時(shí),所提出方法在 MS-COCO 上超過了最先進(jìn)的方法 4.2 mAP。即使有 MS-COCO 的全部監(jiān)督信息,仍然比最先進(jìn)的方法高出約 1.0 mAP。在 PASCAL VOC 上,通過應(yīng)用 VOC07 作為標(biāo)記數(shù)據(jù)和 VOC12 作為無標(biāo)記數(shù)據(jù),可以實(shí)現(xiàn)超過 5mAP 的改進(jìn)。
作者 | Qiang Zhou, Chaohui Yu, Zhibin Wang, Qi Qian, Hao Li
單位 | 阿里
論文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Zhou_Instant-Teaching_An_End-to-End_Semi-Supervised_Object_Detection_framework_CVPR_2021_paper.pdf
One-Stage目標(biāo)檢測
I^3Net: Implicit Instance-Invariant Network for Adapting One-Stage Object Detectors
Implicit Instance-Invariant Network(I3Net)是為適應(yīng) one-stage 檢測器而制定,并通過利用不同層的深度特征的自然特性來隱式學(xué)習(xí)實(shí)例不變的特征。實(shí)驗(yàn)表明,I3Net 在基準(zhǔn)數(shù)據(jù)集上的性能超過了最先進(jìn)水平。
作者 | Chaoqi Chen, Zebiao Zheng, Yue Huang, Xinghao Ding, Yizhou Yu
單位 | 香港大學(xué);廈門大學(xué);Deepwise AI Lab
論文 | https://arxiv.org/abs/2103.13757
多目標(biāo)檢測與跟蹤
There is More than Meets the Eye: Self-Supervised Multi-Object Detection and Tracking with Sound by Distilling Multimodal Knowledge
通過蒸餾多模態(tài)知識(shí)用聲音進(jìn)行自監(jiān)督的多目標(biāo)檢測和跟蹤
作者 | Francisco Rivera Valverde, Juana Valeria Hurtado, Abhinav Valada
單位 | University of Freiburg
論文 | https://arxiv.org/abs/2103.01353
open-vocabulary 目標(biāo)檢測
Open-Vocabulary Object Detection Using Captions
本文中對(duì)目標(biāo)檢測問題提出新的表述:open-vocabulary object detection,比弱監(jiān)督和零樣本方法更普遍、更實(shí)用、更有效。并提出一種新的方法 OVR-CNN,利用有限的物體類別的邊界框標(biāo)注來訓(xùn)練目標(biāo)檢測器,以及涵蓋更多種類物體的 image-caption 對(duì),而且成本明顯降低。
實(shí)驗(yàn)結(jié)果表明,所提出的方法可以檢測和定位在訓(xùn)練期間沒有提供邊界框標(biāo)注的物體,其準(zhǔn)確度明顯高于零樣本方法。同時(shí),有邊界框標(biāo)注的物體檢測精度幾乎與監(jiān)督方法一樣,明顯優(yōu)于弱監(jiān)督的基線。因此,為可擴(kuò)展的目標(biāo)檢測建立了一個(gè)新的 SOTA。
作者 | Alireza Zareian, Kevin Dela Rosa, Derek Hao Hu, Shih-Fu Chang
單位 | Snap Inc;哥倫比亞大學(xué)
論文 | https://arxiv.org/abs/2011.10678
代碼 | https://github.com/alirezazareian/ovr-cnn
備注 | CVPR 2021 oral
基于 ranking 的目標(biāo)檢測
RankDetNet: Delving into Ranking Constraints for Object Detection
提出一個(gè)基于 ranking 的目標(biāo)檢測的優(yōu)化算法,并有 global ranking, class-specific ranking 和 IoU-guided ranking losses 三種 ranking 約束。
實(shí)驗(yàn)表明,RankDetNet 可以持續(xù)改善最先進(jìn)的基于錨點(diǎn)和無錨點(diǎn)的二維檢測基線和三維檢測方法,并證明該方法的優(yōu)越性和通用性。
作者 | Ji Liu, Dong Li, Rongzhang Zheng, Lu Tian, Yi Shan
單位 | 賽靈思
論文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Liu_RankDetNet_Delving_Into_Ranking_Constraints_for_Object_Detection_CVPR_2021_paper.pdf
跨域目標(biāo)檢測
Unbiased Mean Teacher for Cross-domain Object Detection
本次工作中,作者通過利用檢測模型容易對(duì)源圖像產(chǎn)生偏差這一視角對(duì)跨域目標(biāo)檢測這一問題進(jìn)行了研究。提出 Unbiased Mean Teacher(UMT),通過設(shè)計(jì)三種非常有效的策略來彌補(bǔ)模型的偏差。具體來說,先引入 cross-domain 蒸餾,以最大限度地利用教師模型的專業(yè)知識(shí);然后,通過像素級(jí)的適應(yīng)來進(jìn)一步增加學(xué)生模型的訓(xùn)練樣本,以減少其模型偏差;最后, 利用 out-of-distribution 估計(jì)策略,選擇最適合當(dāng)前模型的樣本來加強(qiáng)跨域蒸餾過程。
實(shí)驗(yàn)結(jié)果表明,UMT 以相對(duì)較大的幅度超過了現(xiàn)有的最先進(jìn)的模型。如,在基準(zhǔn)數(shù)據(jù)集 Clipart1k、Watercolor2k、Foggy Cityscapes 和 Cityscapes上的 mAPs 分別達(dá)到了 44.1%、58.1%、41.7% 和 43.1%。
作者 | Jinhong Deng, Wen Li, Yuhua Chen, Lixin Duan
單位 | 電子科技大學(xué);蘇黎世聯(lián)邦理工學(xué)院
論文 | https://arxiv.org/abs/2003.00707
代碼 | https://github.com/kinredon/umt
RPN Prototype Alignment for Domain Adaptive Object Detector
文中提出一種用于跨域目標(biāo)檢測的新型 RPN 原型對(duì)齊方法,它強(qiáng)制兩個(gè)域的 RPN 特征分別與前景和背景的可學(xué)習(xí)原型對(duì)齊。具體來說,提出一種簡單而有效的偽標(biāo)簽生成方法來指導(dǎo)目標(biāo)域中 RPN 特征的學(xué)習(xí)。此外,為了提高前景 RPN 特征的可辨別性,作者提出從 RPC 中生成注意力圖來對(duì) RPN 特征進(jìn)行空間調(diào)制。
對(duì)不同場景的綜合實(shí)驗(yàn)都驗(yàn)證了所提出方法的有效性。
作者 | Yixin Zhang ,Zilei Wang, Yushi Mao
單位 | 中國科學(xué)技術(shù)大學(xué)
論文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Zhang_RPN_Prototype_Alignment_for_Domain_Adaptive_Object_Detector_CVPR_2021_paper.pdf
半監(jiān)督目標(biāo)檢測
Interpolation-based semi-supervised learning for object detection
文中提出基于 Interpolation 的用于目標(biāo)檢測的半監(jiān)督學(xué)習(xí)方法,(ISD)。考慮并解決了由傳統(tǒng)的插值正則化(IR)直接應(yīng)用于目標(biāo)檢測所引起的問題。
實(shí)驗(yàn)證明,在監(jiān)督學(xué)習(xí)環(huán)境中,所提出方法以很大的幅度提高了基準(zhǔn)方法。在半監(jiān)督學(xué)習(xí)環(huán)境中,該算法提高了基準(zhǔn)架構(gòu)(SSD)中基準(zhǔn)數(shù)據(jù)集(PASCAL VOC和MSCOCO)的性能。
作者 | Jisoo Jeong, Vikas Verma, Minsung Hyun, Juho Kannala, Nojun Kwak
單位 | 首爾大學(xué)等
論文 | https://arxiv.org/abs/2006.02158
代碼 | https://github.com/soo89/ISD-SSD
Data-Uncertainty Guided Multi-Phase Learning for Semi-Supervised Object Detection
本文為 半監(jiān)督目標(biāo)檢測提出 data uncertainty guided multi-phase 學(xué)習(xí)方法。可以使模型充分利用所有的信息和不確定性描述指導(dǎo)訓(xùn)練過程,使檢測器集中于某些知識(shí)。在 PASCAL VOC 和 MS COCO 數(shù)據(jù)集上結(jié)果達(dá)到 78.6%和 42.3%,分別超過最先進(jìn)方法的 2.4% 和 2.2%。
作者 | Zhenyu Wang, Yali Li, Ye Guo, Lu Fang, Shengjin Wang
單位 | 清華大學(xué)
論文 | https://arxiv.org/abs/2103.16368
Points as Queries: Weakly Semi-supervised Object Detection by Points
文中提出 Point DETR,在 COCO 數(shù)據(jù)集上,僅使用 20% 完全標(biāo)注的數(shù)據(jù),檢測器可達(dá) 33.3AP,超過基線 2.0AP。
作者 | Liangyu Chen、Tong Yang、Xiangyu Zhang、Wei Zhang、Jian Sun
單位 | 曠視】復(fù)旦大學(xué)
論文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Chen_Points_As_Queries_Weakly_Semi-Supervised_Object_Detection_by_Points_CVPR_2021_paper.pdf
簡介 | 第六條
Interactive Self-Training with Mean Teachers for Semi-supervised Object Detection
文中提出一種交互式的自訓(xùn)練形式框架,使用 mean teachers 進(jìn)行半監(jiān)督的目標(biāo)檢測。可以避免過度擬合,提高半監(jiān)督目標(biāo)檢測的偽標(biāo)簽質(zhì)量。并在MS-COCO 和 PASCAL-VOC上的實(shí)驗(yàn)結(jié)果驗(yàn)證它的有效性。
作者 | Qize Yang, Xihan Wei, Biao Wang, Xian-Sheng Hua, Lei Zhang
單位 | 阿里;香港理工大學(xué)
論文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Yang_Interactive_Self-Training_With_Mean_Teachers_for_Semi-Supervised_Object_Detection_CVPR_2021_paper.pdf
Humble Teachers Teach Better Students for Semi-Supervised Object Detection
文中提出 humble teacher 方法用于半監(jiān)督目標(biāo)檢測,在低數(shù)據(jù)和高數(shù)據(jù)狀態(tài)下都優(yōu)于以前的最先進(jìn)水平。
作者 | Yihe Tang、 Weifeng Chen、Yijun Luo 、Yuting Zhang
單位 | 卡內(nèi)基梅隆大學(xué);亞馬遜
論文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Tang_Humble_Teachers_Teach_Better_Students_for_Semi-Supervised_Object_Detection_CVPR_2021_paper.pdf
弱監(jiān)督目標(biāo)定位
Shallow Feature Matters for Weakly Supervised Object Localization
弱監(jiān)督目標(biāo)定位(WSOL)旨在僅利用圖像級(jí)別的標(biāo)簽來定位目標(biāo)。CAMs 是實(shí)現(xiàn) WSOL 的常用特征。但以前基于 CAM 的方法并沒有充分利用shallow 特征,盡管它們對(duì)WSOL很重要。因?yàn)橥ㄟ^傳統(tǒng)的融合,shallow 特征很容易被埋沒在背景噪聲中。
文中提出 Shallow feature-aware Pseudo supervised Object Localization(SPOL)模型,用于準(zhǔn)確的 WSOL,它充分利用了嵌入淺層的低層次特征。進(jìn)一步提出 Gaussian prior pseudo label(GPPL)和類別無關(guān)的分割模型,以實(shí)現(xiàn) WSOL 的更好的目標(biāo)掩碼。
實(shí)驗(yàn)結(jié)果表明,SPOL 在 CUB200 和 ImageNet-1K 基準(zhǔn)上的表現(xiàn)超過了最先進(jìn)的水平,分別達(dá)到了 93.44% 和 67.15%(即3.93%和2.13%的提高)的Top-5 定位精度。
作者 | Jun Wei,Qin Wang,Zhen Li,Sheng Wang,S.Kevin Zhou, Shuguang Cui
單位 | 香港中文大學(xué)(深圳);深圳市大數(shù)據(jù)研究院;中國科學(xué)技術(shù)大學(xué);中科院;南方科技大學(xué)
論文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Wei_Shallow_Feature_Matters_for_Weakly_Supervised_Object_Localization_CVPR_2021_paper.pdf
Unveiling the Potential of Structure Preserving for Weakly Supervised Object Localization
基于結(jié)構(gòu)信息保持的弱監(jiān)督目標(biāo)定位
作者 | Xingjia Pan, Yingguo Gao, Zhiwen Lin, Fan Tang, Weiming Dong, Haolei Yuan, Feiyue Huang, Changsheng Xu
單位 | 騰訊優(yōu)圖;吉林大學(xué);中科院等
論文 | https://arxiv.org/abs/2103.04523
代碼 | https://github.com/Panxjia/SPA_CVPR2021
簡介 | 13
Strengthen Learning Tolerance for Weakly Supervised Object Localization
文中提出一種新型的分離式定位分類方法 SLT-Net,用于弱監(jiān)督目標(biāo)定位。SLT-Net 通過加強(qiáng)對(duì)語義錯(cuò)誤和數(shù)據(jù)分布多樣性的學(xué)習(xí)容忍度來提高定位性能。提出 class-tolerance 分類模塊,以加強(qiáng)對(duì)語義分類錯(cuò)誤的容忍度,它可以通過減少類似類別中錯(cuò)誤分類的懲罰來緩解部分支配問題。通過將轉(zhuǎn)換后的圖像的視覺反應(yīng)圖與原始圖像的視覺反應(yīng)圖相匹配,加強(qiáng)對(duì)圖像多樣性的容忍度。
在細(xì)粒度數(shù)據(jù)集 CUB 和大規(guī)模數(shù)據(jù)集 ILSVRC2012 上進(jìn)行的實(shí)驗(yàn)證明了所提方法的有效性。
作者 | Guangyu Guo, Junwei Han, Fang Wan, Dingwen Zhang
單位 | 西北工業(yè)大學(xué);國科大
論文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Guo_Strengthen_Learning_Tolerance_for_Weakly_Supervised_Object_Localization_CVPR_2021_paper.pdf
主頁 | https://nwpu-brainlab.gitee.io/index_en
密集目標(biāo)檢測
Generalized Focal Loss V2: Learning Reliable Localization Quality Estimation for Dense Object Detection
作者 | Xiang Li, Wenhai Wang, Xiaolin Hu, Jun Li, Jinhui Tang, Jian Yang
單位 | 南京理工大學(xué);Momenta;南京大學(xué);清華大學(xué)
論文 | https://arxiv.org/abs/2011.12885
代碼 | https://github.com/implus/GFocalV2
解讀 | 目標(biāo)檢測無痛漲點(diǎn)之 Generalized Focal Loss V2
VarifocalNet: An IoU-aware Dense Object Detector
作者 | Haoyang Zhang, Ying Wang, Feras Dayoub, Niko Sünderhauf
單位 | 昆士蘭科技大學(xué);昆士蘭大學(xué)
論文 | https://arxiv.org/abs/2008.13367
代碼 | https://github.com/hyz-xmaster/VarifocalNet
備注 | CVPR 2021 oral
Beyond Bounding-Box: Convex-hull Feature Adaptation for Oriented and Densely Packed Object Detection
提出 convex-hull representation,通過可學(xué)習(xí)的特征配置檢測不規(guī)則形狀和/或布局的物體。又提出 convex-hull feature adaptation(CFA)方法,結(jié)合了 CIoU 和 feature antialiasing strategies,以及定義一種系統(tǒng)的方法來檢測定向和密集的物體。
在 DOTA 和 SKU110KR 數(shù)據(jù)集上的實(shí)驗(yàn)表明,CFA 明顯優(yōu)于基線方法,取得了新的最先進(jìn)檢測性能。
作者 | Zonghao Guo, Chang Liu, Xiaosong Zhang, Jianbin Jiao, Xiangyang Ji,Qixiang Ye
單位 | 國科大;清華
論文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Guo_Beyond_Bounding-Box_Convex-Hull_Feature_Adaptation_for_Oriented_and_Densely_Packed_CVPR_2021_paper.pdf
無監(jiān)督目標(biāo)檢測
Unsupervised Object Detection With LIDAR Clues
作者 | Hao Tian, Yuntao Chen, Jifeng Dai, Zhaoxiang Zhang, Xizhou Zhu
單位 | 商湯;中國科學(xué)院大學(xué)等
論文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Tian_Unsupervised_Object_Detection_With_LIDAR_Clues_CVPR_2021_paper.pdf
偽裝目標(biāo)檢測
Mutual Graph Learning for Camouflaged Object Detection
問題:對(duì)于目前的模型來說,自動(dòng)檢測/分割與周圍環(huán)境融為一體的物體是非常困難的。一個(gè)主要原因是前景物體和背景環(huán)境之間的內(nèi)在相似性使得深度模型所提取的特征無法區(qū)分。
方案:設(shè)計(jì)了 Mutual Graph Learning(MGL)模型,將傳統(tǒng)的相互學(xué)習(xí)理念從常規(guī)的網(wǎng)格推廣到圖域。具體來說,MGL 將一幅圖像解耦為兩個(gè)特定任務(wù)的特征圖:一個(gè)用于大致定位,另一個(gè)用于準(zhǔn)確捕捉其邊界細(xì)節(jié),并通過圖形對(duì)它們的高階關(guān)系進(jìn)行反復(fù)推理,充分挖掘它們的相互優(yōu)勢。重要的是,與大多數(shù)使用共享函數(shù)來模擬所有任務(wù)間互動(dòng)的相互學(xué)習(xí)方法相比,MGL配備了處理不同互補(bǔ)關(guān)系的類型化函數(shù),以最大化信息互動(dòng)。
結(jié)果:在包括 CHAMELEON、CAMO 和 COD10K 上的實(shí)驗(yàn),證明了 MGL 的有效性,以及其性能優(yōu)于現(xiàn)有的先進(jìn)方法。
作者 | Qiang Zhai, Xin Li, Fan Yang, Chenglizhao Chen, Hong Cheng, Deng-Ping Fan
單位 | 電子科技大學(xué);G42;青島大學(xué);IIAI
論文 | https://arxiv.org/abs/2104.02613
代碼 | https://github.com/fanyang587/MGL
玻璃表面檢測
Rich Context Aggregation With Reflection Prior for Glass Surface Detection
文中提出一個(gè)新模型,用于 glass surface detection。它由兩個(gè)模塊組成:一個(gè)是 Rich Context Aggregation Module (RCAM),用于多尺度邊界特征提取;另一個(gè)是 Reflection-based Refinement Module (RRM),用于提取玻璃反射。并構(gòu)建了一個(gè)具有挑戰(zhàn)性的玻璃表面數(shù)據(jù)集,由 4,012 張來自不同的場景帶有玻璃表面掩膜的真實(shí)世界圖像組成。
實(shí)驗(yàn)表明,所提出的模型優(yōu)于相關(guān)領(lǐng)域的最先進(jìn)方法。
作者 | Jiaying Lin ,Zebang He ,Rynson W.H. Lau
單位 | 香港城市大學(xué)
論文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Lin_Rich_Context_Aggregation_With_Reflection_Prior_for_Glass_Surface_Detection_CVPR_2021_paper.pdf
陰影檢測
Single-Stage Instance Shadow Detection with Bidirectional Relation Learning
Instance Shadow Detection 的目的是找到 shadow instances, object instances 和 shadow-object 的關(guān)聯(lián),在光向估計(jì)和照片編輯中都有應(yīng)用。
文中提出一個(gè)單階全卷積網(wǎng)絡(luò)架構(gòu),其中有一個(gè)雙向關(guān)系學(xué)習(xí)模塊,以端到端的方式直接學(xué)習(xí)陰影和物體實(shí)例的關(guān)系。
并在基準(zhǔn)數(shù)據(jù)集上對(duì)該方法進(jìn)行了評(píng)估,結(jié)果表明,優(yōu)于最先進(jìn)的方法。
作者 | Tianyu Wang, Xiaowei Hu, Chi-Wing Fu、Pheng-Ann Heng
單位 | 港中文;中科院
論文 | https://openaccess.thecvf.com/content/CVPR2021/papers/Wang_Single-Stage_Instance_Shadow_Detection_With_Bidirectional_Relation_Learning_CVPR_2021_paper.pdf
代碼 | https://github.com/stevewongv/SSIS
備注 | CVPR 2021 Oral
Triple-cooperative Video Shadow Detection
本次的研究工作共有兩個(gè)貢獻(xiàn)。其一是收集了一個(gè)學(xué)習(xí)型視頻陰影檢測(ViSha)數(shù)據(jù)集,其中包含 120 個(gè)視頻,11,685 幀,涵蓋各種物體和場景,具有像素級(jí)的陰影標(biāo)注。其二是開發(fā)了一個(gè)用于視頻陰影檢測的新型網(wǎng)絡(luò),通過學(xué)習(xí)陰影的視頻內(nèi)和視頻間的鑒別特性。
實(shí)驗(yàn)證明所提出方法始終比 12 種最先進(jìn)的方法有很大的優(yōu)勢。并且作者稱是個(gè)用于視頻陰影檢測的標(biāo)注數(shù)據(jù)集,ViSha 數(shù)據(jù)集可以促進(jìn)視頻陰影檢測的進(jìn)一步研究。
作者 | Zhihao Chen, Liang Wan, Lei Zhu, Jia Shen, Huazhu Fu, Wennan Liu, Jing Qin
單位 | 天津大學(xué);劍橋大學(xué);起源人工智能研究院;香港理工大學(xué)
論文 | https://arxiv.org/abs/2103.06533
代碼 | https://github.com/eraserNut/ViSha
- END -
編輯:CV君
轉(zhuǎn)載請(qǐng)聯(lián)系本公眾號(hào)授權(quán)
馬書東
版權(quán)所有 未經(jīng)許可不得轉(zhuǎn)載
增值電信業(yè)務(wù)經(jīng)營許可證備案號(hào):遼ICP備14006349號(hào)
網(wǎng)站介紹 商務(wù)合作 免責(zé)聲明 - html - txt - xml