論文の概要: Time-to-Label: Temporal Consistency for Self-Supervised Monocular 3D
Object Detection
- arxiv url: http://arxiv.org/abs/2203.02193v1
- Date: Fri, 4 Mar 2022 08:55:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-07 15:41:34.758259
- Title: Time-to-Label: Temporal Consistency for Self-Supervised Monocular 3D
Object Detection
- Title(参考訳): Time-to-Label:自己監督型モノクロ3次元物体検出のための時間一貫性
- Authors: Issa Mouawad, Nikolas Brasch, Fabian Manhardt, Federico Tombari,
Francesca Odone
- Abstract要約: オブジェクトのポーズのレベルにおける時間的一貫性は、重要な監視信号を提供する、と我々は主張する。
具体的には、この一貫性とレンダリング・アンド・コンパレート・ロスを利用する自己教師付き損失を提案する。
我々は,実データから生成した擬似ラベルを用いて,合成訓練されたモノクル3次元物体検出モデルを微調整する。
- 参考スコア(独自算出の注目度): 46.077668660248534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monocular 3D object detection continues to attract attention due to the cost
benefits and wider availability of RGB cameras. Despite the recent advances and
the ability to acquire data at scale, annotation cost and complexity still
limit the size of 3D object detection datasets in the supervised settings.
Self-supervised methods, on the other hand, aim at training deep networks
relying on pretext tasks or various consistency constraints. Moreover, other 3D
perception tasks (such as depth estimation) have shown the benefits of temporal
priors as a self-supervision signal. In this work, we argue that the temporal
consistency on the level of object poses, provides an important supervision
signal given the strong prior on physical motion. Specifically, we propose a
self-supervised loss which uses this consistency, in addition to
render-and-compare losses, to refine noisy pose predictions and derive
high-quality pseudo labels. To assess the effectiveness of the proposed method,
we finetune a synthetically trained monocular 3D object detection model using
the pseudo-labels that we generated on real data. Evaluation on the standard
KITTI3D benchmark demonstrates that our method reaches competitive performance
compared to other monocular self-supervised and supervised methods.
- Abstract(参考訳): 単眼の3Dオブジェクト検出は、コストの利点とRGBカメラの普及により注目されている。
最近の進歩と大規模なデータ取得能力にもかかわらず、アノテーションのコストと複雑さは、教師付き設定で3Dオブジェクト検出データセットのサイズを制限する。
一方,自己教師付き手法は,プリテキストタスクやさまざまな一貫性制約に依存するディープネットワークのトレーニングを目標としている。
さらに、他の3次元知覚タスク(深度推定など)は、自己超越信号として時間的先行の利点を示している。
本研究では,物体のレベルでの時間的一貫性が,物理的運動に強く先行する上で重要な監督信号を与えると主張する。
具体的には,この一貫性を生かした自己教師付き損失に加えて,ノイズの多いポーズ予測を洗練し,高品質な擬似ラベルを導出する。
提案手法の有効性を評価するため, 実データから生成した擬似ラベルを用いて, 合成訓練したモノクル3次元物体検出モデルを微調整する。
標準KITTI3Dベンチマークによる評価は,本手法が他の単分子自己監督型および教師型手法と比較して競合性能に達することを示した。
関連論文リスト
- Robustness-Aware 3D Object Detection in Autonomous Driving: A Review and Outlook [19.539295469044813]
本研究は,現実シナリオ下での知覚システム評価において,精度と遅延とともに頑健性の重要性を強調した。
我々の研究は、カメラのみ、LiDARのみ、マルチモーダルな3Dオブジェクト検出アルゴリズムを広範囲に調査し、精度、レイテンシ、堅牢性の間のトレードオフを徹底的に評価する。
これらのうち、多モード3D検出手法は優れた堅牢性を示し、新しい分類法を導入し、文献を改良して明瞭性を高める。
論文 参考訳(メタデータ) (2024-01-12T12:35:45Z) - View-to-Label: Multi-View Consistency for Self-Supervised 3D Object
Detection [46.077668660248534]
本稿では,RGBシーケンスのみから,自己監督型3Dオブジェクト検出を行う手法を提案する。
KITTI 3Dデータセットを用いた実験では,最先端の自己管理手法と同等の性能を示した。
論文 参考訳(メタデータ) (2023-05-29T09:30:39Z) - 3D Object Detection with a Self-supervised Lidar Scene Flow Backbone [10.341296683155973]
本稿では,下流3次元視覚タスクのための汎用クラウドバックボーンモデルを学習するために,自己指導型トレーニング戦略を提案する。
我々の主な貢献は、学習の流れと動きの表現を活用し、自己教師付きバックボーンと3D検出ヘッドを組み合わせることである。
KITTIとnuScenesベンチマークの実験により、提案した自己教師付き事前学習は3次元検出性能を著しく向上させることが示された。
論文 参考訳(メタデータ) (2022-05-02T07:53:29Z) - Homography Loss for Monocular 3D Object Detection [54.04870007473932]
ホログラフィーロス(Homography Loss)と呼ばれる,2次元情報と3次元情報の両方を利用する識別可能なロス関数を提案する。
提案手法は,KITTI 3Dデータセットにおいて,他の最先端技術と比較して高い性能を示す。
論文 参考訳(メタデータ) (2022-04-02T03:48:03Z) - Probabilistic and Geometric Depth: Detecting Objects in Perspective [78.00922683083776]
3次元物体検出は、運転支援システムなどの様々な実用用途で必要とされる重要な機能である。
双眼視やLiDARに頼っている従来の設定に比べて、経済的な解決策として単眼3D検出が注目されているが、それでも満足のいく結果が得られていない。
本稿ではまず,この問題に関する系統的研究を行い,現在の単分子3次元検出問題をインスタンス深度推定問題として単純化できることを考察する。
論文 参考訳(メタデータ) (2021-07-29T16:30:33Z) - 3D Spatial Recognition without Spatially Labeled 3D [127.6254240158249]
Weakly-supervised framework for Point cloud Recognitionを紹介する。
We show that WyPR can detected and segment objects in point cloud data without access any space labels at training time。
論文 参考訳(メタデータ) (2021-05-13T17:58:07Z) - Detecting Invisible People [58.49425715635312]
我々は,追跡ベンチマークを再利用し,目立たない物体を検出するための新しい指標を提案する。
私たちは、現在の検出および追跡システムがこのタスクで劇的に悪化することを実証します。
第2に,最先端の単眼深度推定ネットワークによる観測結果を用いて,3次元で明示的に推論する動的モデルを構築した。
論文 参考訳(メタデータ) (2020-12-15T16:54:45Z) - SESS: Self-Ensembling Semi-Supervised 3D Object Detection [138.80825169240302]
具体的には、ラベルのない新しい未知のデータに基づくネットワークの一般化を促進するための、徹底的な摂動スキームを設計する。
我々のSESSは、50%のラベル付きデータを用いて、最先端の完全教師付き手法と比較して、競争性能を達成している。
論文 参考訳(メタデータ) (2019-12-26T08:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。