論文の概要: Contrastive Learning-Based Framework for Sim-to-Real Mapping of Lidar
Point Clouds in Autonomous Driving Systems
- arxiv url: http://arxiv.org/abs/2312.15817v1
- Date: Mon, 25 Dec 2023 21:55:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 16:17:24.372851
- Title: Contrastive Learning-Based Framework for Sim-to-Real Mapping of Lidar
Point Clouds in Autonomous Driving Systems
- Title(参考訳): 自律運転システムにおけるライダーポイント雲の同時マッピングのためのコントラスト学習ベースフレームワーク
- Authors: Hamed Haghighi, Mehrdad Dianati, Kurt Debattista, Valentina Donzella
- Abstract要約: 本稿では,自動走行システムにおいて広く使われている知覚センサであるライダー点雲のシミュレートと実写マッピングに焦点を当てた。
画像と画像の翻訳技術の最近の進歩に触発された、コントラシティブ・ラーニングに基づく新しいSim-to-Realマッピングフレームワーク、すなわちCRS2Rを紹介する。
- 参考スコア(独自算出の注目度): 10.964549009068344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Perception sensor models are essential elements of automotive simulation
environments; they also serve as powerful tools for creating synthetic datasets
to train deep learning-based perception models. Developing realistic perception
sensor models poses a significant challenge due to the large gap between
simulated sensor data and real-world sensor outputs, known as the sim-to-real
gap. To address this problem, learning-based models have emerged as promising
solutions in recent years, with unparalleled potential to map low-fidelity
simulated sensor data into highly realistic outputs. Motivated by this
potential, this paper focuses on sim-to-real mapping of Lidar point clouds, a
widely used perception sensor in automated driving systems. We introduce a
novel Contrastive-Learning-based Sim-to-Real mapping framework, namely CLS2R,
inspired by the recent advancements in image-to-image translation techniques.
The proposed CLS2R framework employs a lossless representation of Lidar point
clouds, considering all essential Lidar attributes such as depth, reflectance,
and raydrop. We extensively evaluate the proposed framework, comparing it with
state-of-the-art image-to-image translation methods using a diverse range of
metrics to assess realness, faithfulness, and the impact on the performance of
a downstream task. Our results show that CLS2R demonstrates superior
performance across nearly all metrics. Source code is available at
https://github.com/hamedhaghighi/CLS2R.git.
- Abstract(参考訳): 知覚センサーモデルは、自動車シミュレーション環境の重要な要素であり、深層学習に基づく知覚モデルをトレーニングするための合成データセットを作成する強力なツールとしても機能する。
リアルな知覚センサモデルの開発は、シミュレーションされたセンサデータと現実世界のセンサー出力との間に大きなギャップがあるため、大きな課題となる。
この問題に対処するために、学習ベースのモデルは近年、低忠実度シミュレーションセンサーデータを非常に現実的な出力にマッピングする非並列ポテンシャルを持つ有望な解決策として現れてきた。
この可能性に動機づけられた本論文は、自動運転システムで広く使われている知覚センサlidar point cloudのsim-to-realマッピングに焦点を当てている。
画像と画像の翻訳技術の最近の進歩に触発された、コントラシティブ・ラーニングに基づく新しいSim-to-Realマッピングフレームワーク、すなわちCRS2Rを紹介する。
提案した CLS2R フレームワークは,深度,反射率,レイドロップといった重要な Lidar 属性をすべて考慮し,ライダー点雲のロスレス表現を用いている。
提案手法を最新の画像から画像への変換手法と比較し,実存性,忠実性,ダウンストリームタスクのパフォーマンスへの影響を多種多様な指標を用いて評価した。
以上の結果から,CLS2Rはほとんど全ての指標において優れた性能を示した。
ソースコードはhttps://github.com/hamedhaghighi/CLS2R.gitで入手できる。
関連論文リスト
- Automatically Learning Hybrid Digital Twins of Dynamical Systems [56.69628749813084]
Digital Twins (DT)は、現実世界のシステムの状態と時間力学をシミュレートする。
DTは、しばしばデータスカース設定で目に見えない条件に一般化するのに苦労します。
本稿では,HDTwinsを自律的に提案し,評価し,最適化するための進化的アルゴリズム(textbfHDTwinGen$)を提案する。
論文 参考訳(メタデータ) (2024-10-31T07:28:22Z) - SimGen: Simulator-conditioned Driving Scene Generation [50.03358485083602]
シミュレーション条件付きシーン生成フレームワークSimGenを紹介する。
SimGenは、シミュレータと現実世界のデータを混ぜることで、多様な運転シーンを生成することを学ぶ。
テキストプロンプトとシミュレータからのレイアウトに基づいて制御性を保ちながら、優れた生成品質と多様性を実現する。
論文 参考訳(メタデータ) (2024-06-13T17:58:32Z) - Exploring Generative AI for Sim2Real in Driving Data Synthesis [6.769182994217369]
ドライビングシミュレータは、対応するアノテーションで様々なドライビングシナリオを自動的に生成するソリューションを提供するが、シミュレーションとリアリティ(Sim2Real)ドメインギャップは依然として課題である。
本稿では,現実的なデータセット作成のためのブリッジとして,運転シミュレータからのセマンティックラベルマップを活用するために,3つの異なる生成AI手法を適用した。
実験の結果,手動のアノテートラベルが提供されると,GANベースの手法は高品質な画像を生成するには適しているが,ControlNetは,シミュレータ生成ラベルを使用すると,より少ないアーティファクトとより構造的忠実度を持つ合成データセットを生成することがわかった。
論文 参考訳(メタデータ) (2024-04-14T01:23:19Z) - Are NeRFs ready for autonomous driving? Towards closing the real-to-simulation gap [6.393953433174051]
本稿では,実際のデータギャップに対処するための新しい視点を提案する。
自律運転環境における実シミュレーションデータギャップの大規模調査を初めて実施する。
シミュレーションデータに対するモデルロバスト性は顕著に向上し,実世界の性能も向上した。
論文 参考訳(メタデータ) (2024-03-24T11:09:41Z) - Review of the Learning-based Camera and Lidar Simulation Methods for
Autonomous Driving Systems [7.90336803821407]
本稿では,学習に基づくセンサシミュレーション手法と検証手法の現状について概説する。
これは、カメラとライダーの2種類の知覚センサーに焦点を当てている。
論文 参考訳(メタデータ) (2024-01-29T16:56:17Z) - Waymax: An Accelerated, Data-Driven Simulator for Large-Scale Autonomous
Driving Research [76.93956925360638]
Waymaxは、マルチエージェントシーンにおける自動運転のための新しいデータ駆動シミュレータである。
TPU/GPUなどのハードウェアアクセラレータで完全に動作し、トレーニング用のグラフ内シミュレーションをサポートする。
我々は、一般的な模倣と強化学習アルゴリズムのスイートをベンチマークし、異なる設計決定に関するアブレーション研究を行った。
論文 参考訳(メタデータ) (2023-10-12T20:49:15Z) - PCGen: Point Cloud Generator for LiDAR Simulation [10.692184635629792]
既存の方法は、実点雲よりもノイズが多く、完全なデータを生成する。
我々はFPAレイキャストと代理モデルレイドロップを提案する。
最小限のトレーニングデータによって、代理モデルは異なる地理やシーンに一般化することができる。
その結果、シミュレーションデータにより訓練されたオブジェクト検出モデルは、実際のデータトレーニングモデルと同じような結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-10-17T04:13:21Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - Hybrid modeling: Applications in real-time diagnosis [64.5040763067757]
我々は、機械学習にインスパイアされたモデルと物理モデルを組み合わせた、新しいハイブリッドモデリングアプローチの概要を述べる。
このようなモデルをリアルタイム診断に利用しています。
論文 参考訳(メタデータ) (2020-03-04T00:44:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。