論文の概要: Structure Information is the Key: Self-Attention RoI Feature Extractor
in 3D Object Detection
- arxiv url: http://arxiv.org/abs/2111.00931v1
- Date: Mon, 1 Nov 2021 13:32:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 16:30:54.292065
- Title: Structure Information is the Key: Self-Attention RoI Feature Extractor
in 3D Object Detection
- Title(参考訳): 構造情報の鍵:3次元物体検出における自己注意型RoI特徴エクストラクタ
- Authors: Diankun Zhang, Zhijie Zheng, Xueting Bi, Xiaojun Liu,
- Abstract要約: 我々は,2つの最先端モデルPV-RCNNとVoxel-RCNNの構造と性能の違いを比較し,解析する。
2つのモデル間の性能差は点情報ではなく構造情報から生じる。
本稿では,3次元提案から抽出した特徴の構造化情報を強化するために,自己注意型RoI特徴抽出器(SARFE)を提案する。
- 参考スコア(独自算出の注目度): 0.39373541926236766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unlike 2D object detection where all RoI features come from grid pixels, the
RoI feature extraction of 3D point cloud object detection is more diverse. In
this paper, we first compare and analyze the differences in structure and
performance between the two state-of-the-art models PV-RCNN and Voxel-RCNN.
Then, we find that the performance gap between the two models does not come
from point information, but structural information. The voxel features contain
more structural information because they do quantization instead of
downsampling to point cloud so that they can contain basically the complete
information of the whole point cloud. The stronger structural information in
voxel features makes the detector have higher performance in our experiments
even if the voxel features don't have accurate location information. Then, we
propose that structural information is the key to 3D object detection. Based on
the above conclusion, we propose a Self-Attention RoI Feature Extractor (SARFE)
to enhance structural information of the feature extracted from 3D proposals.
SARFE is a plug-and-play module that can be easily used on existing 3D
detectors. Our SARFE is evaluated on both KITTI dataset and Waymo Open dataset.
With the newly introduced SARFE, we improve the performance of the
state-of-the-art 3D detectors by a large margin in cyclist on KITTI dataset
while keeping real-time capability.
- Abstract(参考訳): RoIのすべての特徴がグリッドピクセルから得られる2Dオブジェクト検出とは異なり、3Dポイントクラウドオブジェクト検出のRoI特徴抽出はより多様である。
本稿ではまず,2つの最先端モデルPV-RCNNとVoxel-RCNNの構造と性能の違いを比較し,解析する。
そして,2つのモデル間の性能差は点情報からではなく,構造情報から生じることがわかった。
ボクセルの特徴は、点雲にダウンサンプリングする代わりに量子化を行うので、点雲全体の完全な情報を含むことができるため、より構造的な情報を含んでいる。
ボクセルの特徴の強い構造情報は、正確な位置情報を持っていなくても、この検出器を我々の実験で高い性能にします。
そこで我々は3次元物体検出の鍵となる構造情報を提案する。
以上の結論に基づき、3次元提案から抽出した特徴の構造化情報を強化する自己注意型RoI特徴抽出器(SARFE)を提案する。
SARFEは既存の3D検出器で簡単に使用できるプラグアンドプレイモジュールである。
我々のSARFEは、KITTIデータセットとWaymo Openデータセットの両方で評価されます。
新たに導入されたSARFEにより、リアルタイム能力を維持しながら、KITTIデータセット上でのサイクリストの大きなマージンで最先端の3D検出器の性能を向上する。
関連論文リスト
- 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Structure Aware and Class Balanced 3D Object Detection on nuScenes
Dataset [0.0]
NuTonomyのnuScenesデータセットは、KITTIのような一般的なデータセットを大きく拡張している。
このモデルの局所化精度は、ダウンスケールされた特徴写像における空間情報の損失に影響される。
本稿では,3次元点雲の構造情報をフル活用した補助ネットワークを設計することで,CBGSモデルの性能を向上させることを提案する。
論文 参考訳(メタデータ) (2022-05-25T06:18:49Z) - The Devil is in the Task: Exploiting Reciprocal Appearance-Localization
Features for Monocular 3D Object Detection [62.1185839286255]
低コストのモノクル3D物体検出は、自律運転において基本的な役割を果たす。
DFR-Netという動的特徴反射ネットワークを導入する。
我々は、KITTIテストセットの全ての単分子3D物体検出器の中で、第1位にランク付けする。
論文 参考訳(メタデータ) (2021-12-28T07:31:18Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - SIENet: Spatial Information Enhancement Network for 3D Object Detection
from Point Cloud [20.84329063509459]
LiDARベースの3Dオブジェクト検出は、自動運転車に大きな影響を与える。
LiDARの固有特性の制限により、センサーから遠く離れた物体において、より少ない点が収集される。
そこで本研究では,SIENetという2段階の3次元物体検出フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T07:45:09Z) - SA-Det3D: Self-Attention Based Context-Aware 3D Object Detection [9.924083358178239]
本稿では,3次元物体検出におけるコンテキストモデリングのための2種類の自己注意法を提案する。
まず,現状のbev,voxel,ポイントベース検出器にペアワイズ自着機構を組み込む。
次に,ランダムにサンプリングされた位置の変形を学習することにより,最も代表的な特徴のサブセットをサンプリングするセルフアテンション変種を提案する。
論文 参考訳(メタデータ) (2021-01-07T18:30:32Z) - Deep Continuous Fusion for Multi-Sensor 3D Object Detection [103.5060007382646]
本稿では,LIDARとカメラを併用して高精度な位置検出を実現する3Dオブジェクト検出器を提案する。
我々は,連続畳み込みを利用して画像とlidar特徴マップを異なるレベルの解像度で融合する,エンドツーエンド学習可能なアーキテクチャを設計した。
論文 参考訳(メタデータ) (2020-12-20T18:43:41Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z) - 3D Object Detection From LiDAR Data Using Distance Dependent Feature
Extraction [7.04185696830272]
本研究は、LiDAR点雲の性質を遠距離で考慮し、3次元物体検出器の改良を提案する。
その結果、近距離および長距離オブジェクトのための個別ネットワークのトレーニングは、すべてのKITTIベンチマークの困難さに対するパフォーマンスを高めることが示された。
論文 参考訳(メタデータ) (2020-03-02T13:16:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。