論文の概要: 3D Object Detection with a Self-supervised Lidar Scene Flow Backbone
- arxiv url: http://arxiv.org/abs/2205.00705v1
- Date: Mon, 2 May 2022 07:53:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 15:15:29.270683
- Title: 3D Object Detection with a Self-supervised Lidar Scene Flow Backbone
- Title(参考訳): 自己教師付きライダーシーンバックボーンによる3次元物体検出
- Authors: Eme\c{c} Er\c{c}elik, Ekim Yurtsever, Mingyu Liu, Zhijie Yang, Hanzhen
Zhang, P{\i}nar Top\c{c}am, Maximilian Listl, Y{\i}lmaz Kaan \c{C}ayl{\i},
Alois Knoll
- Abstract要約: 本稿では,下流3次元視覚タスクのための汎用クラウドバックボーンモデルを学習するために,自己指導型トレーニング戦略を提案する。
我々の主な貢献は、学習の流れと動きの表現を活用し、自己教師付きバックボーンと3D検出ヘッドを組み合わせることである。
KITTIとnuScenesベンチマークの実験により、提案した自己教師付き事前学習は3次元検出性能を著しく向上させることが示された。
- 参考スコア(独自算出の注目度): 10.341296683155973
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art 3D detection methods rely on supervised learning and large
labelled datasets. However, annotating lidar data is resource-consuming, and
depending only on supervised learning limits the applicability of trained
models. Against this backdrop, here we propose using a self-supervised training
strategy to learn a general point cloud backbone model for downstream 3D vision
tasks. 3D scene flow can be estimated with self-supervised learning using cycle
consistency, which removes labelled data requirements. Moreover, the perception
of objects in the traffic scenarios heavily relies on making sense of the
sparse data in the spatio-temporal context. Our main contribution leverages
learned flow and motion representations and combines a self-supervised backbone
with a 3D detection head focusing mainly on the relation between the scene flow
and detection tasks. In this way, self-supervised scene flow training
constructs point motion features in the backbone, which help distinguish
objects based on their different motion patterns used with a 3D detection head.
Experiments on KITTI and nuScenes benchmarks show that the proposed
self-supervised pre-training increases 3D detection performance significantly.
- Abstract(参考訳): 最先端の3d検出手法は教師あり学習と大規模ラベル付きデータセットに依存している。
しかし、lidarデータのアノテーションはリソース消費であり、教師付き学習のみに依存するため、トレーニングされたモデルの適用性が制限される。
このような背景から,下流3次元視覚タスクのための汎用クラウドバックボーンモデルを学習するために,自己指導型トレーニング戦略を提案する。
3dシーンフローは、ラベル付きデータ要求を取り除くサイクル一貫性を使って、自己教師付き学習で推定できる。
さらに、交通シナリオにおけるオブジェクトの認識は、時空間におけるスパースデータの理解に大きく依存している。
我々の主な貢献は学習の流れと動きの表現を利用しており、主にシーンフローと検出タスクの関係に焦点を当てた自己教師付きバックボーンと3D検出ヘッドを組み合わせている。
このように、自己監督型シーンフロートレーニングは、バックボーン内の点運動特徴を構築し、3D検出ヘッドで使用する異なる動きパターンに基づいて物体を識別する。
kittiおよびnuscenesベンチマーク実験では,自己教師付き事前学習により3次元検出性能が著しく向上した。
関連論文リスト
- Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Time-to-Label: Temporal Consistency for Self-Supervised Monocular 3D
Object Detection [46.077668660248534]
オブジェクトのポーズのレベルにおける時間的一貫性は、重要な監視信号を提供する、と我々は主張する。
具体的には、この一貫性とレンダリング・アンド・コンパレート・ロスを利用する自己教師付き損失を提案する。
我々は,実データから生成した擬似ラベルを用いて,合成訓練されたモノクル3次元物体検出モデルを微調整する。
論文 参考訳(メタデータ) (2022-03-04T08:55:49Z) - The Devil is in the Task: Exploiting Reciprocal Appearance-Localization
Features for Monocular 3D Object Detection [62.1185839286255]
低コストのモノクル3D物体検出は、自律運転において基本的な役割を果たす。
DFR-Netという動的特徴反射ネットワークを導入する。
我々は、KITTIテストセットの全ての単分子3D物体検出器の中で、第1位にランク付けする。
論文 参考訳(メタデータ) (2021-12-28T07:31:18Z) - Spatio-temporal Self-Supervised Representation Learning for 3D Point
Clouds [96.9027094562957]
ラベルのないタスクから学習できる時間的表現学習フレームワークを導入する。
幼児が野生の視覚的データからどのように学ぶかに触発され、3Dデータから派生した豊かな手がかりを探索する。
STRLは3Dポイントクラウドシーケンスから2つの時間的関連フレームを入力として、空間データ拡張で変換し、不変表現を自己指導的に学習する。
論文 参考訳(メタデータ) (2021-09-01T04:17:11Z) - Occlusion Guided Self-supervised Scene Flow Estimation on 3D Point
Clouds [4.518012967046983]
2つの連続時間フレーム間のスパースサンプリング点の3次元空間における流れを理解することは、現代の幾何学駆動系の中核石である。
本稿では,咬合下の3次元シーンフロー推定のための新しい自己教師あり学習法とアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-04-10T09:55:19Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Do not trust the neighbors! Adversarial Metric Learning for
Self-Supervised Scene Flow Estimation [0.0]
シーンフローは動的3次元シーンの個々の点に3次元運動ベクトルを推定するタスクである。
本稿では,3次元シーンフローベンチマークと,トレーニングフローモデルのための新しい自己教師型セットアップを提案する。
我々は,移動コヒーレンスを保ち,多くの自監督ベースラインが把握できない局所的なジオメトリーを維持できることを発見した。
論文 参考訳(メタデータ) (2020-11-01T17:41:32Z) - PointContrast: Unsupervised Pre-training for 3D Point Cloud
Understanding [107.02479689909164]
本研究では,3次元表現学習の研究を支援することを目的とする。
教師なし事前学習が3Dシーンの大規模なソースセットに与える影響を計測する。
論文 参考訳(メタデータ) (2020-07-21T17:59:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。