論文の概要: IAFA: Instance-aware Feature Aggregation for 3D Object Detection from a
Single Image
- arxiv url: http://arxiv.org/abs/2103.03480v1
- Date: Fri, 5 Mar 2021 05:47:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-08 14:51:22.168293
- Title: IAFA: Instance-aware Feature Aggregation for 3D Object Detection from a
Single Image
- Title(参考訳): IAFA: 単一画像からの3Dオブジェクト検出のためのインスタンス認識機能集約
- Authors: Dingfu Zhou, Xibin Song, Yuchao Dai, Junbo Yin, Feixiang Lu, Jin Fang,
Miao Liao and Liangjun Zhang
- Abstract要約: 単一の画像からの3Dオブジェクト検出は、自動運転において重要なタスクです。
本稿では,3次元物体検出の精度向上のために有用な情報を集約するインスタンス認識手法を提案する。
- 参考スコア(独自算出の注目度): 37.83574424518901
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: 3D object detection from a single image is an important task in Autonomous
Driving (AD), where various approaches have been proposed. However, the task is
intrinsically ambiguous and challenging as single image depth estimation is
already an ill-posed problem. In this paper, we propose an instance-aware
approach to aggregate useful information for improving the accuracy of 3D
object detection with the following contributions. First, an instance-aware
feature aggregation (IAFA) module is proposed to collect local and global
features for 3D bounding boxes regression. Second, we empirically find that the
spatial attention module can be well learned by taking coarse-level instance
annotations as a supervision signal. The proposed module has significantly
boosted the performance of the baseline method on both 3D detection and 2D
bird-eye's view of vehicle detection among all three categories. Third, our
proposed method outperforms all single image-based approaches (even these
methods trained with depth as auxiliary inputs) and achieves state-of-the-art
3D detection performance on the KITTI benchmark.
- Abstract(参考訳): 単一画像からの3次元物体検出は、様々なアプローチが提案されている自律運転(AD)において重要な課題である。
しかし、単一の画像深度推定は、すでに不適切な問題であるため、タスクは本質的に曖昧で挑戦的です。
本稿では,3次元物体検出の精度を向上させるために有用な情報を集約するインスタンス認識手法を提案する。
まず、インスタンス認識機能集約(IAFA)モジュールを提案し、3Dバウンディングボックス回帰のためのローカルおよびグローバル機能を収集します。
第2に,粗いインスタンスアノテーションを監督信号として取り入れることで,空間的注意モジュールを十分に学習できることを実証的に確認する。
提案するモジュールは3次元検出と2次元バードアイによる車両検出の両方におけるベースライン法の性能を大幅に向上させた。
第3に,提案手法は,単一のイメージベースアプローチ(これらの手法でさえ,補助入力として深さで訓練された)を上回り,kittiベンチマークで最先端の3d検出性能を実現する。
関連論文リスト
- S$^3$-MonoDETR: Supervised Shape&Scale-perceptive Deformable Transformer for Monocular 3D Object Detection [21.96072831561483]
本稿では,モノクロ3次元物体検出のためのSupervised Shape&Scale-perceptive Deformable Attention' (S$3$-DA) モジュールを提案する。
これにより、S$3$-DAは、任意のカテゴリに属するクエリポイントに対する受容的フィールドを効果的に推定し、堅牢なクエリ機能を生成することができる。
KITTIとOpenデータセットの実験では、S$3$-DAが検出精度を大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-09-02T12:36:38Z) - SOGDet: Semantic-Occupancy Guided Multi-view 3D Object Detection [19.75965521357068]
本稿では,SOGDet(Semantic-Occupancy Guided Multi-view Object Detection)と呼ばれる新しい手法を提案する。
以上の結果から,SOGDet は nuScenes Detection Score (NDS) と平均平均精度 (mAP) の3つのベースライン法の性能を一貫して向上させることがわかった。
これは、3Dオブジェクト検出と3Dセマンティック占有の組み合わせが、3D環境をより包括的に認識し、より堅牢な自律運転システムの構築を支援することを示唆している。
論文 参考訳(メタデータ) (2023-08-26T07:38:21Z) - PAI3D: Painting Adaptive Instance-Prior for 3D Object Detection [22.41785292720421]
Painting Adaptive Instance-prior for 3D Object Detection (PAI3D)は、シーケンシャルなインスタンスレベルの融合フレームワークである。
まず、画像からインスタンスレベルの意味情報を抽出する。
次に、オブジェクト分類ラベル、ポイント・ツー・オブジェクト・メンバシップ、オブジェクト位置を含む抽出情報を用いて、その後の3D検出ネットワークにおける各LiDARポイントを増強する。
論文 参考訳(メタデータ) (2022-11-15T11:15:25Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - The Devil is in the Task: Exploiting Reciprocal Appearance-Localization
Features for Monocular 3D Object Detection [62.1185839286255]
低コストのモノクル3D物体検出は、自律運転において基本的な役割を果たす。
DFR-Netという動的特徴反射ネットワークを導入する。
我々は、KITTIテストセットの全ての単分子3D物体検出器の中で、第1位にランク付けする。
論文 参考訳(メタデータ) (2021-12-28T07:31:18Z) - M3DSSD: Monocular 3D Single Stage Object Detector [82.25793227026443]
特徴アライメントと非対称非局所的注意を有するモノクロ3次元単段物体検出器(M3DSSD)を提案する。
提案したM3DSSDは,KITTIデータセット上のモノラルな3Dオブジェクト検出手法よりも大幅に性能が向上する。
論文 参考訳(メタデータ) (2021-03-24T13:09:11Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - SMOKE: Single-Stage Monocular 3D Object Detection via Keypoint
Estimation [3.1542695050861544]
3Dの向きとオブジェクトの変換を推定することは、インフラストラクチャレスの自律走行と運転に不可欠である。
SMOKEと呼ばれる新しい3次元オブジェクト検出手法を提案する。
構造的単純さにもかかわらず、提案するSMOKEネットワークは、KITTIデータセット上の既存のモノクル3D検出方法よりも優れている。
論文 参考訳(メタデータ) (2020-02-24T08:15:36Z) - SESS: Self-Ensembling Semi-Supervised 3D Object Detection [138.80825169240302]
具体的には、ラベルのない新しい未知のデータに基づくネットワークの一般化を促進するための、徹底的な摂動スキームを設計する。
我々のSESSは、50%のラベル付きデータを用いて、最先端の完全教師付き手法と比較して、競争性能を達成している。
論文 参考訳(メタデータ) (2019-12-26T08:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。