論文の概要: FGR: Frustum-Aware Geometric Reasoning for Weakly Supervised 3D Vehicle
Detection
- arxiv url: http://arxiv.org/abs/2105.07647v1
- Date: Mon, 17 May 2021 07:29:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 14:44:15.458997
- Title: FGR: Frustum-Aware Geometric Reasoning for Weakly Supervised 3D Vehicle
Detection
- Title(参考訳): fgr:frustum-aware geometric reasoning for weakly supervised 3d vehicle detection
- Authors: Yi Wei, Shang Su, Jiwen Lu, Jie Zhou
- Abstract要約: 3Dアノテーションを使わずに点雲中の車両を検出するためのフラストラム対応幾何推論(FGR)を提案する。
本手法は粗い3次元セグメンテーションと3次元バウンディングボックス推定の2段階からなる。
2Dバウンディングボックスとスパースポイントクラウドだけで、3D空間内のオブジェクトを正確に検出できます。
- 参考スコア(独自算出の注目度): 81.79171905308827
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate the problem of weakly supervised 3D vehicle
detection. Conventional methods for 3D object detection need vast amounts of
manually labelled 3D data as supervision signals. However, annotating large
datasets requires huge human efforts, especially for 3D area. To tackle this
problem, we propose frustum-aware geometric reasoning (FGR) to detect vehicles
in point clouds without any 3D annotations. Our method consists of two stages:
coarse 3D segmentation and 3D bounding box estimation. For the first stage, a
context-aware adaptive region growing algorithm is designed to segment objects
based on 2D bounding boxes. Leveraging predicted segmentation masks, we develop
an anti-noise approach to estimate 3D bounding boxes in the second stage.
Finally 3D pseudo labels generated by our method are utilized to train a 3D
detector. Independent of any 3D groundtruth, FGR reaches comparable performance
with fully supervised methods on the KITTI dataset. The findings indicate that
it is able to accurately detect objects in 3D space with only 2D bounding boxes
and sparse point clouds.
- Abstract(参考訳): 本稿では,弱い教師付き3次元車両検出の問題について検討する。
従来の3Dオブジェクト検出手法では、大量の手動で3Dデータを監視信号としてラベル付けする必要がある。
しかし、大規模なデータセットをアノテートするには、特に3d領域において、膨大な人的努力が必要となる。
この問題に対処するために,3次元アノテーションを使わずに点雲内の車両を検出するフラストラム対応幾何推論(FGR)を提案する。
本手法は粗い3次元セグメンテーションと3次元バウンディングボックス推定の2段階からなる。
最初の段階では、2dバウンディングボックスに基づいてオブジェクトをセグメンテーションするようにコンテキスト認識適応領域成長アルゴリズムが設計されている。
予測セグメンテーションマスクを活用することで,第2段階で3次元境界ボックスを推定するアンチノイズ手法を開発した。
最後に,本手法により生成された3次元擬似ラベルを用いて3次元検出器を訓練する。
任意の3D基盤構造とは独立して、FGRはKITTIデータセット上で完全に教師付きメソッドで同等のパフォーマンスに達する。
その結果,2次元境界ボックスとスパース点雲だけで3次元空間内の物体を正確に検出できることが示唆された。
関連論文リスト
- OriCon3D: Effective 3D Object Detection using Orientation and Confidence [0.0]
この研究は、ディープ畳み込みニューラルネットワーク(DCNN)を用いた物体の共通3次元特性を最初に推定する。
次に、これらの推定値と2次元有界箱が提供する幾何学的制約を組み合わせ、完全な3次元有界箱を生成する。
論文 参考訳(メタデータ) (2023-04-27T19:52:47Z) - Recursive Cross-View: Use Only 2D Detectors to Achieve 3D Object
Detection without 3D Annotations [0.5439020425819]
本稿では,完全指向の3D境界ボックスを予測しながら,一切の3Dアノテーションを要求しない手法を提案する。
再帰的クロスビュー(Recursive Cross-View, RCV)と呼ばれる手法は, 3次元検出を複数の2次元検出タスクに変換するために3次元原理を利用する。
RCVは、3Dラベルを使わずに完全な3Dボックスを生成する最初の3D検出方法である。
論文 参考訳(メタデータ) (2022-11-14T04:51:05Z) - Homography Loss for Monocular 3D Object Detection [54.04870007473932]
ホログラフィーロス(Homography Loss)と呼ばれる,2次元情報と3次元情報の両方を利用する識別可能なロス関数を提案する。
提案手法は,KITTI 3Dデータセットにおいて,他の最先端技術と比較して高い性能を示す。
論文 参考訳(メタデータ) (2022-04-02T03:48:03Z) - FCOS3D: Fully Convolutional One-Stage Monocular 3D Object Detection [78.00922683083776]
一般的な2D検出器をこの3Dタスクで動作させることは簡単ではない。
本報告では,完全畳み込み型単段検出器を用いた手法を用いてこの問題を考察する。
私たちのソリューションは、NeurIPS 2020のnuScenes 3D検出チャレンジのすべてのビジョンのみの方法の中で1位を獲得します。
論文 参考訳(メタデータ) (2021-04-22T09:35:35Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - Learning to Predict the 3D Layout of a Scene [0.3867363075280544]
本稿では,単一のRGB画像のみを使用する手法を提案し,LiDARセンサを持たないデバイスや車両に適用できるようにする。
KITTIデータセットは,クラスラベル付き道路交通シーン,2D境界ボックス,自由度7自由度3Dアノテーションで構成される。
我々は、公式のKITTIベンチマークで要求されるように、結合閾値70%の3次元交差で測定された適度に困難なデータに対して平均47.3%の平均精度を達成し、従来の最先端のRGBのみの手法よりも大きなマージンで上回った。
論文 参考訳(メタデータ) (2020-11-19T17:23:30Z) - Cylinder3D: An Effective 3D Framework for Driving-scene LiDAR Semantic
Segmentation [87.54570024320354]
大規模運転シーンのLiDARセマンティックセマンティックセグメンテーションのための最先端の手法は、しばしば2D空間の点雲を投影して処理する。
3D-to-2Dプロジェクションの問題に取り組むための簡単な解決策は、3D表現を保ち、3D空間の点を処理することである。
我々は3次元シリンダー分割と3次元シリンダー畳み込みに基づくフレームワークをCylinder3Dとして開発し,3次元トポロジの関係と運転シーンの点雲の構造を利用する。
論文 参考訳(メタデータ) (2020-08-04T13:56:19Z) - SMOKE: Single-Stage Monocular 3D Object Detection via Keypoint
Estimation [3.1542695050861544]
3Dの向きとオブジェクトの変換を推定することは、インフラストラクチャレスの自律走行と運転に不可欠である。
SMOKEと呼ばれる新しい3次元オブジェクト検出手法を提案する。
構造的単純さにもかかわらず、提案するSMOKEネットワークは、KITTIデータセット上の既存のモノクル3D検出方法よりも優れている。
論文 参考訳(メタデータ) (2020-02-24T08:15:36Z) - DSGN: Deep Stereo Geometry Network for 3D Object Detection [79.16397166985706]
画像ベースとLiDARベースの3Dオブジェクト検出器の間には大きなパフォーマンスギャップがある。
我々の手法であるDeep Stereo Geometry Network (DSGN)は,このギャップを著しく低減する。
初めて、シンプルで効果的な1段ステレオベースの3D検出パイプラインを提供する。
論文 参考訳(メタデータ) (2020-01-10T11:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。