論文の概要: Simulation-to-Reality domain adaptation for offline 3D object annotation
on pointclouds with correlation alignment
- arxiv url: http://arxiv.org/abs/2202.02666v1
- Date: Sun, 6 Feb 2022 00:40:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-10 09:50:22.209699
- Title: Simulation-to-Reality domain adaptation for offline 3D object annotation
on pointclouds with correlation alignment
- Title(参考訳): 相関アライメントを伴う点雲上のオフライン3次元オブジェクトアノテーションのシミュレーションと現実領域適応
- Authors: Weishuang Zhang, B Ravi Kiran, Thomas Gauthier, Yanis Mazouz, Theo
Steger
- Abstract要約: シミュレーションデータを用いて,配備車両が収集した実世界の点群を半自動アノテートする手法を提案する。
我々は、CARLAのラベル付きシミュレーションデータと、ターゲット車からの現実世界の点雲を併用した3次元物体検出モデルを訓練する。
- 参考スコア(独自算出の注目度): 0.20999222360659603
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Annotating objects with 3D bounding boxes in LiDAR pointclouds is a costly
human driven process in an autonomous driving perception system. In this paper,
we present a method to semi-automatically annotate real-world pointclouds
collected by deployment vehicles using simulated data. We train a 3D object
detector model on labeled simulated data from CARLA jointly with real world
pointclouds from our target vehicle. The supervised object detection loss is
augmented with a CORAL loss term to reduce the distance between labeled
simulated and unlabeled real pointcloud feature representations. The goal here
is to learn representations that are invariant to simulated (labeled) and
real-world (unlabeled) target domains. We also provide an updated survey on
domain adaptation methods for pointclouds.
- Abstract(参考訳): LiDARポイントクラウドに3Dバウンディングボックスでオブジェクトをアノテートすることは、自律運転認識システムにおいて、コストのかかる人間駆動プロセスである。
本稿では,シミュレーションデータを用いて,配備車両が収集した実世界のポイントクラウドをセミオートマチックにアノテートする手法を提案する。
対象車両の現実のポイントクラウドと共同で,carlaのラベル付きシミュレーションデータに基づく3次元物体検出モデルをトレーニングする。
教師付きオブジェクト検出損失は、ラベル付きシミュレーションとラベルなしのリアルポイントクラウド特徴表現との間の距離を減らすために、サンゴ損失項で拡張される。
ここでの目標は、シミュレーション(ラベル付き)および実世界の(ラベルなし)ターゲットドメインに不変な表現を学ぶことである。
また、pointcloudsのドメイン適応メソッドに関する最新の調査も提供する。
関連論文リスト
- End-to-End 3D Object Detection using LiDAR Point Cloud [0.0]
本稿では,LiDAR点雲の新たなエンコーディングを用いて,自律走行車に近いクラスの位置を推定する手法を提案する。
出力は、シーン内のオブジェクトの位置と向きを3D境界ボックスとシーンオブジェクトのラベルで予測する。
論文 参考訳(メタデータ) (2023-12-24T00:52:14Z) - TrajectoryFormer: 3D Object Tracking Transformer with Predictive
Trajectory Hypotheses [51.60422927416087]
3Dマルチオブジェクトトラッキング(MOT)は、自律走行車やサービスロボットを含む多くのアプリケーションにとって不可欠である。
本稿では,新しいポイントクラウドベースの3DMOTフレームワークであるTrjectoryFormerを紹介する。
論文 参考訳(メタデータ) (2023-06-09T13:31:50Z) - Quantifying the LiDAR Sim-to-Real Domain Shift: A Detailed Investigation
Using Object Detectors and Analyzing Point Clouds at Target-Level [1.1999555634662635]
自律運転のためのニューラルネットワークに基づくLiDARオブジェクト検出アルゴリズムは、トレーニング、検証、テストのために大量のデータを必要とする。
ニューラルネットワークのトレーニングにシミュレーションデータを使用することで、シーン、シナリオ、分布の違いによるトレーニングデータとテストデータのドメインシフトが生じることを示す。
論文 参考訳(メタデータ) (2023-03-03T12:52:01Z) - BEV-MAE: Bird's Eye View Masked Autoencoders for Point Cloud
Pre-training in Autonomous Driving Scenarios [51.285561119993105]
自律運転におけるLiDARに基づく3Dオブジェクト検出のための,効率的なマスク付きオートエンコーダ事前学習フレームワークであるBEV-MAEを提案する。
具体的には、3Dエンコーダ学習特徴表現を導くために,鳥の目視(BEV)誘導マスキング戦略を提案する。
学習可能なポイントトークンを導入し、3Dエンコーダの一貫性のある受容的フィールドサイズを維持する。
論文 参考訳(メタデータ) (2022-12-12T08:15:03Z) - Point-Syn2Real: Semi-Supervised Synthetic-to-Real Cross-Domain Learning
for Object Classification in 3D Point Clouds [14.056949618464394]
LiDAR 3Dポイントクラウドデータを用いたオブジェクト分類は、自律運転のような現代的なアプリケーションにとって重要である。
本稿では,ポイントクラウドのマニュアルアノテーションに依存しない半教師付きクロスドメイン学習手法を提案する。
我々は、ポイントクラウド上でのクロスドメイン学習のための新しいベンチマークデータセットであるPoint-Syn2Realを紹介した。
論文 参考訳(メタデータ) (2022-10-31T01:53:51Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Self-supervised Point Cloud Completion on Real Traffic Scenes via
Scene-concerned Bottom-up Mechanism [14.255659581428333]
ポイントクラウド補完は、オブジェクトの不完全な3Dスキャンのための完全な形状を参照することを目的としている。
現在のディープラーニングベースのアプローチは、トレーニングプロセスにおける大規模な完全な形状に依存しています。
本研究では,交通現場の車両に対して,完全なデータを持たない自己監視点クラウド補完手法(TraPCC)を提案する。
論文 参考訳(メタデータ) (2022-03-20T14:42:37Z) - Exploring Simple 3D Multi-Object Tracking for Autonomous Driving [10.921208239968827]
LiDARポイントクラウドにおける3Dマルチオブジェクトトラッキングは、自動運転車にとって重要な要素である。
既存の手法は、主にトラッキング・バイ・検出パイプラインに基づいており、検出アソシエーションのマッチングステップが必然的に必要である。
我々は,手作りの追跡パラダイムをシンプルにするために,原点雲からの共同検出と追跡のためのエンドツーエンドのトレーニング可能なモデルを提案する。
論文 参考訳(メタデータ) (2021-08-23T17:59:22Z) - ST3D: Self-training for Unsupervised Domain Adaptation on 3D
ObjectDetection [78.71826145162092]
点雲からの3次元物体検出における教師なし領域適応のための新しい領域適応型自己学習パイプラインST3Dを提案する。
当社のST3Dは、評価されたすべてのデータセットで最先端のパフォーマンスを達成し、KITTI 3Dオブジェクト検出ベンチマークで完全に監視された結果を超えます。
論文 参考訳(メタデータ) (2021-03-09T10:51:24Z) - Recovering and Simulating Pedestrians in the Wild [81.38135735146015]
本研究では,自動車の走行によって野生で捕獲されたセンサから歩行者の形状と動きを復元することを提案する。
再建された歩行者資産銀行をリアルな3Dシミュレーションシステムに組み込む。
シミュレーションしたLiDARデータを用いて,視覚知覚タスクに必要な実世界のデータ量を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2020-11-16T17:16:32Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。