訂閱
糾錯(cuò)
加入自媒體

CVPR2020 | 基于點(diǎn)的3D單階段對象檢測器3DSSD

本文通過兩步定義候選點(diǎn)的中心標(biāo)簽:

1.  確定該點(diǎn)是否在一個(gè)目標(biāo)中;

2. 計(jì)算該點(diǎn)到這個(gè)目標(biāo)六面體上下左右表面的距離,再通過以下公式得到 l_ctrness:

損失函數(shù)

全部損失函數(shù)分為分類損失、回歸損失和偏移損失(這個(gè)是指從采樣代表點(diǎn)到候選點(diǎn)得到時(shí)的損失函數(shù))。

其中 N_c 為候選點(diǎn)的個(gè)數(shù),N_p 為勾選點(diǎn)中前景點(diǎn)的個(gè)數(shù),N_P^* 表示 F-FPS 采樣得到的候選點(diǎn)。分類損失采用的是交叉熵函數(shù),s_i, u_i 分別表示預(yù)測得分和中心性分?jǐn)?shù);貧w損失包括距離回歸、大小回歸、角度回歸和角點(diǎn)回歸。

論文實(shí)驗(yàn)

本文實(shí)驗(yàn)使用了 mix-up、隨機(jī)旋轉(zhuǎn)平移、x 軸尺度變化、z 軸旋轉(zhuǎn)四種數(shù)據(jù)增強(qiáng)方法。在 KITTI 和 nuScenes 兩個(gè)數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)。

為驗(yàn)證各?斓挠行,本文還進(jìn)行了消融實(shí)驗(yàn)。

值得注意的是,本文的方法甚至可以與基于體素的單階段方法保持相似的 inference 速度。在所有現(xiàn)有方法中,本文的方法僅比 PointPillars 慢,而 PointPillars 已通過多種實(shí)現(xiàn)優(yōu)化策略(例如 TensorRT)進(jìn)行了增強(qiáng),但是在本文的實(shí)現(xiàn)中尚未使用。本文的方法仍有很大的潛力可以進(jìn)一步加速。

結(jié)論

本文首次提出了一種輕量級且高效的基于點(diǎn)的 3D 單階段目標(biāo)檢測框架,并引入了一種新穎的融合采樣策略,以刪除費(fèi)時(shí)的 FP 和優(yōu)化模塊。在預(yù)測網(wǎng)絡(luò)中,候選生成層利用降采樣的代表點(diǎn)進(jìn)一步降低計(jì)算成本。本文提出的帶有 3D 中心標(biāo)簽的無錨回歸頭提高了最終性能。所有這些有效的設(shè)計(jì)使本文的模型在性能和 inference 時(shí)間方面都表現(xiàn)更加出色。

<上一頁  1  2  3  
聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報(bào)。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個(gè)字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號