訂閱
糾錯(cuò)
加入自媒體

ECCV 2020論文合集(目標(biāo)檢測(cè))

上次我們給大家?guī)?lái)了關(guān)于CNN與圖像分割主題的論文,本次的主題是目標(biāo)檢測(cè),包含2D、3D的目標(biāo)檢測(cè),旋轉(zhuǎn)目標(biāo)檢測(cè),視頻目標(biāo)檢測(cè),大家在閱讀論文的同時(shí)也可親自動(dòng)手實(shí)踐,快來(lái)看看吧!

目標(biāo)檢測(cè)

目標(biāo)檢測(cè)是與計(jì)算機(jī)視覺(jué)與圖像處理的計(jì)算機(jī)技術(shù),處理的是在數(shù)字圖像和視頻中檢測(cè)出的特定類(lèi)別的語(yǔ)義對(duì)象(如人類(lèi)、建筑物或汽車(chē))的實(shí)例。目標(biāo)檢測(cè)的研究領(lǐng)域包括人臉檢測(cè)和行人檢測(cè)。目標(biāo)檢測(cè)在計(jì)算機(jī)視覺(jué)的許多領(lǐng)域都有應(yīng)用,包括圖像檢索和視頻監(jiān)控 。

2D目標(biāo)檢測(cè)

1 Dense RepPoints: Representing Visual Objects with Dense Point Sets

作者:Yang Ze,Xu Yinghao,Xue Han,Zhang Zheng,Urtasun Raquel,Wang Liwei,Lin Stephen,Hu Han

機(jī)構(gòu):北京大學(xué),香港中文大學(xué)

簡(jiǎn)介:本文提出了一種對(duì)象表示法,稱(chēng)為dense Rep Points,用于靈活而詳細(xì)地建模對(duì)象外觀和幾何體。與邊界框的粗幾何定位和特征提取不同,DenseRepPoints自適應(yīng)地將一組密集的點(diǎn)分布到對(duì)象上具有重要幾何意義的位置,為對(duì)象分析提供信息提示。技術(shù)的發(fā)展是為了解決與監(jiān)督訓(xùn)練從圖像片段和符號(hào)密集點(diǎn)集相關(guān)的挑戰(zhàn),并使這種廣泛的表示在理論上是可行的。此外,該表示的多功能性被用于在多個(gè)粒度級(jí)別上建模對(duì)象結(jié)構(gòu)。稠密的表示點(diǎn)顯著提高了面向幾何的可視化理解任務(wù)的性能,包括在具有挑戰(zhàn)性的COCO基準(zhǔn)測(cè)試中對(duì)象檢測(cè)的1:6AP增益。

2 Corner Proposal Network for Anchor-free, Two-stage Object Detection

作者:Kaiwen Duan,Lingxi Xie,Honggang Qi,Song Bai,Qingming Huang,Qi Tian

機(jī)構(gòu):中國(guó)科學(xué)院大學(xué),華為

簡(jiǎn)介:目標(biāo)檢測(cè)的目標(biāo)是確定目標(biāo)在圖像中的類(lèi)別和位置。本文提出了一種新的無(wú)錨的兩階段框架,該框架首先通過(guò)尋找潛在的角點(diǎn)組合來(lái)提取多個(gè)目標(biāo)方案,然后通過(guò)獨(dú)立的分類(lèi)階段為每個(gè)方案分配一個(gè)類(lèi)別標(biāo)簽。作者證明這兩個(gè)階段分別是提高查全率和查準(zhǔn)率的有效解決方案,并且可以集成到一個(gè)端到端網(wǎng)絡(luò)中。他們的方法被稱(chēng)為角點(diǎn)建議網(wǎng)絡(luò)(Corner proposition Network,CPN),它具有檢測(cè)不同尺度對(duì)象的能力,并且避免了被大量的誤報(bào)建議所迷惑。在MS-COCO數(shù)據(jù)集上,CPN達(dá)到了49.2%的AP,這在現(xiàn)有的目標(biāo)檢測(cè)方法中具有競(jìng)爭(zhēng)力。CPN同樣適用于計(jì)算效率的場(chǎng)景,在26.2/43.3fps時(shí),CPN的AP達(dá)到41.6%/39.7%,超過(guò)了大多數(shù)具有相同推理速度的競(jìng)爭(zhēng)對(duì)手。

3 BorderDet: Border Feature for Dense Object Detection

作者:Han Qiu,Yuchen Ma,Zeming Li,Songtao Liu,Jian Sun

機(jī)構(gòu):曠視科技,西安交通大學(xué)

簡(jiǎn)介:密集型目標(biāo)探測(cè)器依賴(lài)于滑動(dòng)窗口模式,它可以在規(guī)則的圖像網(wǎng)格上預(yù)測(cè)目標(biāo)。同時(shí),采用網(wǎng)格點(diǎn)上的特征映射生成邊界盒預(yù)測(cè)。點(diǎn)特征使用方便,但可能缺少精確定位的明確邊界信息。本文提出了一種簡(jiǎn)單高效的邊界對(duì)齊算子,從邊界的極值點(diǎn)提取“邊界特征”,以增強(qiáng)點(diǎn)特征。在BorderAlign的基礎(chǔ)上,作者設(shè)計(jì)了一種新的檢測(cè)體系結(jié)構(gòu)BorderDet,它明確地利用了邊界信息來(lái)實(shí)現(xiàn)更強(qiáng)的分類(lèi)和更精確的定位。使用ResNet-50主干,他們的方法將單級(jí)探測(cè)器FCOS提高了2.8 AP增益(38.6 v.s.41.4)。通過(guò)ResNeXt-101-DCN主干,他們的BorderDet獲得了50.3 AP,優(yōu)于現(xiàn)有的最新方法。

1  2  3  下一頁(yè)>  
聲明: 本文由入駐維科號(hào)的作者撰寫(xiě),觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)