論文の概要: FGR: Frustum-Aware Geometric Reasoning for Weakly Supervised 3D Vehicle
Detection
- arxiv url: http://arxiv.org/abs/2105.07647v1
- Date: Mon, 17 May 2021 07:29:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 14:44:15.458997
- Title: FGR: Frustum-Aware Geometric Reasoning for Weakly Supervised 3D Vehicle
Detection
- Title(参考訳): fgr:frustum-aware geometric reasoning for weakly supervised 3d vehicle detection
- Authors: Yi Wei, Shang Su, Jiwen Lu, Jie Zhou
- Abstract要約: 3Dアノテーションを使わずに点雲中の車両を検出するためのフラストラム対応幾何推論(FGR)を提案する。
本手法は粗い3次元セグメンテーションと3次元バウンディングボックス推定の2段階からなる。
2Dバウンディングボックスとスパースポイントクラウドだけで、3D空間内のオブジェクトを正確に検出できます。
- 参考スコア(独自算出の注目度): 81.79171905308827
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate the problem of weakly supervised 3D vehicle
detection. Conventional methods for 3D object detection need vast amounts of
manually labelled 3D data as supervision signals. However, annotating large
datasets requires huge human efforts, especially for 3D area. To tackle this
problem, we propose frustum-aware geometric reasoning (FGR) to detect vehicles
in point clouds without any 3D annotations. Our method consists of two stages:
coarse 3D segmentation and 3D bounding box estimation. For the first stage, a
context-aware adaptive region growing algorithm is designed to segment objects
based on 2D bounding boxes. Leveraging predicted segmentation masks, we develop
an anti-noise approach to estimate 3D bounding boxes in the second stage.
Finally 3D pseudo labels generated by our method are utilized to train a 3D
detector. Independent of any 3D groundtruth, FGR reaches comparable performance
with fully supervised methods on the KITTI dataset. The findings indicate that
it is able to accurately detect objects in 3D space with only 2D bounding boxes
and sparse point clouds.
- Abstract(参考訳): 本稿では,弱い教師付き3次元車両検出の問題について検討する。
従来の3Dオブジェクト検出手法では、大量の手動で3Dデータを監視信号としてラベル付けする必要がある。
しかし、大規模なデータセットをアノテートするには、特に3d領域において、膨大な人的努力が必要となる。
この問題に対処するために,3次元アノテーションを使わずに点雲内の車両を検出するフラストラム対応幾何推論(FGR)を提案する。
本手法は粗い3次元セグメンテーションと3次元バウンディングボックス推定の2段階からなる。
最初の段階では、2dバウンディングボックスに基づいてオブジェクトをセグメンテーションするようにコンテキスト認識適応領域成長アルゴリズムが設計されている。
予測セグメンテーションマスクを活用することで,第2段階で3次元境界ボックスを推定するアンチノイズ手法を開発した。
最後に,本手法により生成された3次元擬似ラベルを用いて3次元検出器を訓練する。
任意の3D基盤構造とは独立して、FGRはKITTIデータセット上で完全に教師付きメソッドで同等のパフォーマンスに達する。
その結果,2次元境界ボックスとスパース点雲だけで3次元空間内の物体を正確に検出できることが示唆された。
関連論文リスト
- General Geometry-aware Weakly Supervised 3D Object Detection [62.26729317523975]
RGB画像と関連する2Dボックスから3Dオブジェクト検出器を学習するための統合フレームワークを開発した。
KITTIとSUN-RGBDデータセットの実験により,本手法は驚くほど高品質な3次元境界ボックスを2次元アノテーションで生成することを示した。
論文 参考訳(メタデータ) (2024-07-18T17:52:08Z) - VSRD: Instance-Aware Volumetric Silhouette Rendering for Weakly Supervised 3D Object Detection [11.061100776969383]
モノクロ3Dオブジェクト検出は3Dシーン理解において重要な課題となる。
既存の手法は、豊富な3Dラベルを用いた教師あり学習に大きく依存している。
本稿では,VSRDという3次元オブジェクト検出フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-29T20:43:55Z) - Weakly Supervised 3D Object Detection via Multi-Level Visual Guidance [72.6809373191638]
本稿では,3次元ラベルを必要とせずに2次元ドメインと3次元ドメイン間の制約を活用できるフレームワークを提案する。
具体的には、LiDARと画像特徴をオブジェクト認識領域に基づいて整列する特徴レベルの制約を設計する。
第二に、出力レベルの制約は、2Dと投影された3Dボックスの推定の重なりを強制するために開発される。
第3に、トレーニングレベルの制約は、視覚データと整合した正確で一貫した3D擬似ラベルを生成することによって利用される。
論文 参考訳(メタデータ) (2023-12-12T18:57:25Z) - Recursive Cross-View: Use Only 2D Detectors to Achieve 3D Object
Detection without 3D Annotations [0.5439020425819]
本稿では,完全指向の3D境界ボックスを予測しながら,一切の3Dアノテーションを要求しない手法を提案する。
再帰的クロスビュー(Recursive Cross-View, RCV)と呼ばれる手法は, 3次元検出を複数の2次元検出タスクに変換するために3次元原理を利用する。
RCVは、3Dラベルを使わずに完全な3Dボックスを生成する最初の3D検出方法である。
論文 参考訳(メタデータ) (2022-11-14T04:51:05Z) - Homography Loss for Monocular 3D Object Detection [54.04870007473932]
ホログラフィーロス(Homography Loss)と呼ばれる,2次元情報と3次元情報の両方を利用する識別可能なロス関数を提案する。
提案手法は,KITTI 3Dデータセットにおいて,他の最先端技術と比較して高い性能を示す。
論文 参考訳(メタデータ) (2022-04-02T03:48:03Z) - Learning to Predict the 3D Layout of a Scene [0.3867363075280544]
本稿では,単一のRGB画像のみを使用する手法を提案し,LiDARセンサを持たないデバイスや車両に適用できるようにする。
KITTIデータセットは,クラスラベル付き道路交通シーン,2D境界ボックス,自由度7自由度3Dアノテーションで構成される。
我々は、公式のKITTIベンチマークで要求されるように、結合閾値70%の3次元交差で測定された適度に困難なデータに対して平均47.3%の平均精度を達成し、従来の最先端のRGBのみの手法よりも大きなマージンで上回った。
論文 参考訳(メタデータ) (2020-11-19T17:23:30Z) - Cylinder3D: An Effective 3D Framework for Driving-scene LiDAR Semantic
Segmentation [87.54570024320354]
大規模運転シーンのLiDARセマンティックセマンティックセグメンテーションのための最先端の手法は、しばしば2D空間の点雲を投影して処理する。
3D-to-2Dプロジェクションの問題に取り組むための簡単な解決策は、3D表現を保ち、3D空間の点を処理することである。
我々は3次元シリンダー分割と3次元シリンダー畳み込みに基づくフレームワークをCylinder3Dとして開発し,3次元トポロジの関係と運転シーンの点雲の構造を利用する。
論文 参考訳(メタデータ) (2020-08-04T13:56:19Z) - SMOKE: Single-Stage Monocular 3D Object Detection via Keypoint
Estimation [3.1542695050861544]
3Dの向きとオブジェクトの変換を推定することは、インフラストラクチャレスの自律走行と運転に不可欠である。
SMOKEと呼ばれる新しい3次元オブジェクト検出手法を提案する。
構造的単純さにもかかわらず、提案するSMOKEネットワークは、KITTIデータセット上の既存のモノクル3D検出方法よりも優れている。
論文 参考訳(メタデータ) (2020-02-24T08:15:36Z) - DSGN: Deep Stereo Geometry Network for 3D Object Detection [79.16397166985706]
画像ベースとLiDARベースの3Dオブジェクト検出器の間には大きなパフォーマンスギャップがある。
我々の手法であるDeep Stereo Geometry Network (DSGN)は,このギャップを著しく低減する。
初めて、シンプルで効果的な1段ステレオベースの3D検出パイプラインを提供する。
論文 参考訳(メタデータ) (2020-01-10T11:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。