論文の概要: AeDet: Azimuth-invariant Multi-view 3D Object Detection
- arxiv url: http://arxiv.org/abs/2211.12501v3
- Date: Tue, 4 Apr 2023 09:34:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 18:37:50.494096
- Title: AeDet: Azimuth-invariant Multi-view 3D Object Detection
- Title(参考訳): AeDet: Azimuth-invariant Multi-view 3D Object Detection
- Authors: Chengjian Feng, Zequn Jie, Yujie Zhong, Xiangxiang Chu and Lin Ma
- Abstract要約: 本稿では,アジマス同変畳み込み(AeConv)とアジマス同変アンカーを提案する。
提案したアンカーにより、検出ヘッドは方位非関連目標の予測を学習することができる。
その結果の検出器はAzimuth-equivariant Detector (AeDet)と呼ばれる。
- 参考スコア(独自算出の注目度): 31.520134835497117
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent LSS-based multi-view 3D object detection has made tremendous progress,
by processing the features in Brid-Eye-View (BEV) via the convolutional
detector. However, the typical convolution ignores the radial symmetry of the
BEV features and increases the difficulty of the detector optimization. To
preserve the inherent property of the BEV features and ease the optimization,
we propose an azimuth-equivariant convolution (AeConv) and an
azimuth-equivariant anchor. The sampling grid of AeConv is always in the radial
direction, thus it can learn azimuth-invariant BEV features. The proposed
anchor enables the detection head to learn predicting azimuth-irrelevant
targets. In addition, we introduce a camera-decoupled virtual depth to unify
the depth prediction for the images with different camera intrinsic parameters.
The resultant detector is dubbed Azimuth-equivariant Detector (AeDet).
Extensive experiments are conducted on nuScenes, and AeDet achieves a 62.0%
NDS, surpassing the recent multi-view 3D object detectors such as PETRv2 and
BEVDepth by a large margin. Project page: https://fcjian.github.io/aedet.
- Abstract(参考訳): 最近のLSSベースの多視点3Dオブジェクト検出は、畳み込み検出器を介してブリドアイビュー(BEV)の特徴を処理することで大幅に進歩した。
しかし、典型的な畳み込みは、BEV特徴の放射対称性を無視し、検出器最適化の難しさを高める。
BEVの特性の保存と最適化の容易化を目的として,アジマス同変畳み込み(AeConv)とアジマス同変アンカーを提案する。
AeConvのサンプリンググリッドは常に放射方向であり、方位不変なBEV特徴を学習することができる。
提案するアンカーにより,検出ヘッドは方位非関連目標の予測を学習できる。
さらに,カメラが分離した仮想深度を導入し,カメラ固有のパラメータの異なる画像の深度予測を統一する。
結果検出器は azimuth-equivariant detector (aedet) と呼ばれる。
AeDetは62.0%のNDSを達成し、PETRv2やBEVDepthといった最近の多視点3Dオブジェクト検出器をはるかに上回っている。
プロジェクトページ: https://fcjian.github.io/aedet。
関連論文リスト
- Towards Unified 3D Object Detection via Algorithm and Data Unification [70.27631528933482]
我々は、最初の統一型マルチモーダル3Dオブジェクト検出ベンチマークMM-Omni3Dを構築し、上記のモノクロ検出器をマルチモーダルバージョンに拡張する。
設計した単分子・多モード検出器をそれぞれUniMODEとMM-UniMODEと命名した。
論文 参考訳(メタデータ) (2024-02-28T18:59:31Z) - Instance-aware Multi-Camera 3D Object Detection with Structural Priors
Mining and Self-Boosting Learning [93.71280187657831]
カメラによる鳥眼視(BEV)知覚パラダイムは、自律運転分野において大きな進歩を遂げている。
画像平面のインスタンス認識をBEV検出器内の深度推定プロセスに統合するIA-BEVを提案する。
論文 参考訳(メタデータ) (2023-12-13T09:24:42Z) - SparseBEV: High-Performance Sparse 3D Object Detection from Multi-Camera
Videos [20.51396212498941]
SparseBEVは完全にスパースな3Dオブジェクト検出器で、密度の高い物体よりも優れています。
nuScenesのテスト分割で、SparseBEVは67.5 NDSの最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2023-08-18T02:11:01Z) - OA-BEV: Bringing Object Awareness to Bird's-Eye-View Representation for
Multi-Camera 3D Object Detection [78.38062015443195]
OA-BEVは、BEVベースの3Dオブジェクト検出フレームワークにプラグインできるネットワークである。
提案手法は,BEV ベースラインに対する平均精度と nuScenes 検出スコアの両面で一貫した改善を実現する。
論文 参考訳(メタデータ) (2023-01-13T06:02:31Z) - TiG-BEV: Multi-view BEV 3D Object Detection via Target Inner-Geometry
Learning [7.6887888234987125]
本稿では,LiDARモダリティからカメラベースBEV検出器へのターゲット内形状の学習手法を提案する。
TiG-BEVは、BEVDepthを+2.3% NDS、+2.4% mAP、BEVDetを+9.1% NDS、+10.3% mAPで効果的に増強することができる。
論文 参考訳(メタデータ) (2022-12-28T17:53:43Z) - Learning Object-level Point Augmentor for Semi-supervised 3D Object
Detection [85.170578641966]
半教師付き3次元オブジェクト検出のための局所変換を行うオブジェクトレベルポイント拡張器(OPA)を提案する。
このようにして、結果のオーグメンタは、無関係なバックグラウンドではなく、オブジェクトインスタンスを強調するように導出されます。
ScanNetとSUN RGB-Dデータセットの実験は、提案したOPAが最先端の手法に対して好適に動作することを示している。
論文 参考訳(メタデータ) (2022-12-19T06:56:14Z) - BEVDepth: Acquisition of Reliable Depth for Multi-view 3D Object
Detection [13.319949358652192]
我々は,カメラを用いたBird-Eye-View 3Dオブジェクト検出のための,BEVDepthと呼ばれる信頼性の高い深度推定が可能な新しい3Dオブジェクト検出器を提案する。
BEVDepthは、挑戦的なnuScenesテストセット上で、最先端の60.0% NDSを達成する。
論文 参考訳(メタデータ) (2022-06-21T03:21:18Z) - Fully Convolutional One-Stage 3D Object Detection on LiDAR Range Images [96.66271207089096]
FCOS-LiDARは、自律走行シーンのLiDAR点雲のための完全な1段式3Dオブジェクト検出器である。
標準的な2Dコンボリューションを持つRVベースの3D検出器は、最先端のBEVベースの検出器と同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-05-27T05:42:16Z) - RAANet: Range-Aware Attention Network for LiDAR-based 3D Object
Detection with Auxiliary Density Level Estimation [11.180128679075716]
自律運転のためのLiDARデータから3Dオブジェクトを検出するために,Range-Aware Attention Network (RAANet) が開発された。
RAANetはより強力なBEV機能を抽出し、優れた3Dオブジェクト検出を生成する。
nuScenesデータセットの実験により,提案手法がLiDARを用いた3Dオブジェクト検出の最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-11-18T04:20:13Z) - M3DSSD: Monocular 3D Single Stage Object Detector [82.25793227026443]
特徴アライメントと非対称非局所的注意を有するモノクロ3次元単段物体検出器(M3DSSD)を提案する。
提案したM3DSSDは,KITTIデータセット上のモノラルな3Dオブジェクト検出手法よりも大幅に性能が向上する。
論文 参考訳(メタデータ) (2021-03-24T13:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。