論文の概要: FocalFormer3D : Focusing on Hard Instance for 3D Object Detection
- arxiv url: http://arxiv.org/abs/2308.04556v1
- Date: Tue, 8 Aug 2023 20:06:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 15:58:32.249205
- Title: FocalFormer3D : Focusing on Hard Instance for 3D Object Detection
- Title(参考訳): FocalFormer3D : 3Dオブジェクト検出のためのハードインスタンスに着目して
- Authors: Yilun Chen, Zhiding Yu, Yukang Chen, Shiyi Lan, Animashree Anandkumar,
Jiaya Jia, Jose Alvarez
- Abstract要約: 3次元物体検出における偽陰性(False negatives, FN)は、自動運転において潜在的に危険な状況を引き起こす可能性がある。
本研究では,マルチステージ方式でtextitFN を識別する汎用パイプラインである Hard Instance Probing (HIP) を提案する。
この手法をFocalFormer3Dとしてインスタンス化する。
- 参考スコア(独自算出の注目度): 97.56185033488168
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: False negatives (FN) in 3D object detection, {\em e.g.}, missing predictions
of pedestrians, vehicles, or other obstacles, can lead to potentially dangerous
situations in autonomous driving. While being fatal, this issue is understudied
in many current 3D detection methods. In this work, we propose Hard Instance
Probing (HIP), a general pipeline that identifies \textit{FN} in a multi-stage
manner and guides the models to focus on excavating difficult instances. For 3D
object detection, we instantiate this method as FocalFormer3D, a simple yet
effective detector that excels at excavating difficult objects and improving
prediction recall. FocalFormer3D features a multi-stage query generation to
discover hard objects and a box-level transformer decoder to efficiently
distinguish objects from massive object candidates. Experimental results on the
nuScenes and Waymo datasets validate the superior performance of FocalFormer3D.
The advantage leads to strong performance on both detection and tracking, in
both LiDAR and multi-modal settings. Notably, FocalFormer3D achieves a 70.5 mAP
and 73.9 NDS on nuScenes detection benchmark, while the nuScenes tracking
benchmark shows 72.1 AMOTA, both ranking 1st place on the nuScenes LiDAR
leaderboard. Our code is available at
\url{https://github.com/NVlabs/FocalFormer3D}.
- Abstract(参考訳): 3dオブジェクト検出における偽陰性(fn)は、歩行者、車両、その他の障害物の予測を欠くことによって、自動運転において潜在的に危険な状況につながる可能性がある。
致命的な問題だが、この問題は現在の多くの3D検出手法で検討されている。
本研究では,多段階的に \textit{fn} を識別する一般的なパイプラインであるhard instance probing (hip)を提案する。
3次元物体検出のために,この手法をfocalformer3dとしてインスタンス化する。
FocalFormer3Dは、ハードオブジェクトを見つけるためのマルチステージクエリ生成と、巨大なオブジェクト候補からオブジェクトを効率的に区別するボックスレベルのトランスフォーマーデコーダを備えている。
nuScenesとWaymoデータセットの実験結果は、FocalFormer3Dの優れた性能を検証する。
この利点は、LiDARとマルチモーダル設定の両方において、検出とトラッキングの両方で強力なパフォーマンスをもたらす。
FocalFormer3D は nuScenes 検出ベンチマークで 70.5 mAP と 73.9 NDS を達成し、nuScenes 追跡ベンチマークでは 72.1 AMOTA を示し、どちらも nuScenes LiDAR リーダーボードで1位となった。
私たちのコードは \url{https://github.com/NVlabs/FocalFormer3D} で利用可能です。
関連論文リスト
- STONE: A Submodular Optimization Framework for Active 3D Object Detection [20.54906045954377]
正確な3Dオブジェクト検出器をトレーニングするための鍵となる要件は、大量のLiDARベースのポイントクラウドデータが利用できることである。
本稿では,3次元物体検出装置のトレーニングにおけるラベル付けコストを大幅に削減する,統合されたアクティブな3次元物体検出フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-04T20:45:33Z) - TR3D: Towards Real-Time Indoor 3D Object Detection [6.215404942415161]
TR3Dは、エンドツーエンドで訓練された完全畳み込み3Dオブジェクト検出モデルである。
ポイントクラウドとRGBの両方の入力を利用するため、我々は2Dと3Dの機能の早期融合を導入する。
TR3D+FFと呼ばれる初期の特徴融合モデルでは,SUN RGB-Dデータセット上で既存の3Dオブジェクト検出手法よりも優れている。
論文 参考訳(メタデータ) (2023-02-06T15:25:50Z) - SparseDet: Towards End-to-End 3D Object Detection [12.3069609175534]
ポイントクラウドからエンドツーエンドの3Dオブジェクト検出のためのSparseDetを提案する。
新しい検出パラダイムとして、SparseDetは遅延候補を表現するための学習可能な提案の固定セットを維持している。
SparseDetはより効率的な34.5 FPSで実行しながら高い競合検出精度を達成する。
論文 参考訳(メタデータ) (2022-06-02T09:49:53Z) - A Lightweight and Detector-free 3D Single Object Tracker on Point Clouds [50.54083964183614]
生のLiDARスキャンにおける物体の点雲は、通常スパースで不完全であるため、正確な目標固有検出を行うのは簡単ではない。
DMTは、複雑な3D検出器の使用を完全に除去する3Dトラッキングネットワークである。
論文 参考訳(メタデータ) (2022-03-08T17:49:07Z) - Embracing Single Stride 3D Object Detector with Sparse Transformer [63.179720817019096]
自律走行のためのLiDARを用いた3次元物体検出では、物体サイズと入力シーンサイズとの比が2次元検出の場合に比べて有意に小さい。
多くの3D検出器は2D検出器の一般的な慣習に従っており、点雲の定量化後も特徴マップを分解する。
本稿では,SST(Single-stride Sparse Transformer)を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:12:02Z) - 3D-VField: Learning to Adversarially Deform Point Clouds for Robust 3D
Object Detection [111.32054128362427]
安全クリティカルな環境では、アウト・オブ・ディストリビューションとロングテールサンプルの堅牢性は、危険な問題を回避するのに不可欠である。
トレーニング中の変形点雲を考慮した3次元物体検出器の領域外データへの一般化を著しく改善する。
我々は、リアルに損傷を受けた稀な車の合成データセットであるCrashDを提案し、共有する。
論文 参考訳(メタデータ) (2021-12-09T08:50:54Z) - ST3D: Self-training for Unsupervised Domain Adaptation on 3D
ObjectDetection [78.71826145162092]
点雲からの3次元物体検出における教師なし領域適応のための新しい領域適応型自己学習パイプラインST3Dを提案する。
当社のST3Dは、評価されたすべてのデータセットで最先端のパフォーマンスを達成し、KITTI 3Dオブジェクト検出ベンチマークで完全に監視された結果を超えます。
論文 参考訳(メタデータ) (2021-03-09T10:51:24Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - 3D for Free: Crossmodal Transfer Learning using HD Maps [36.70550754737353]
最新の2Dデータセットの大規模なクラスタコノミクスと、最先端2D検出手法の堅牢性を活用している。
私たちは、自動運転車からラベルのないマルチモーダル運転ログ1151のコレクションをマイニングしています。
よりラベルのないデータをマイニングすることにより,検出器の性能が向上することを示す。
論文 参考訳(メタデータ) (2020-08-24T17:54:51Z) - Weakly Supervised 3D Object Detection from Point Clouds [27.70180601788613]
3Dオブジェクト検出は、特定のクラスに属するオブジェクトの3D境界ボックスを検出し、ローカライズすることを目的としている。
既存の3Dオブジェクト検出器は、トレーニング中にアノテーション付き3Dバウンディングボックスに依存している。
基礎となる真理3D境界ボックスを使わずに点雲からの3Dオブジェクト検出を弱教師付きで行うためのフレームワークであるVS3Dを提案する。
論文 参考訳(メタデータ) (2020-07-28T03:30:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。