論文の概要: A Unified Generative Framework for Realistic Lidar Simulation in Autonomous Driving Systems
- arxiv url: http://arxiv.org/abs/2312.15817v2
- Date: Wed, 09 Oct 2024 15:26:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-10 14:28:53.746855
- Title: A Unified Generative Framework for Realistic Lidar Simulation in Autonomous Driving Systems
- Title(参考訳): 自律走行システムにおけるリアリスティックライダーシミュレーションのための統合生成フレームワーク
- Authors: Hamed Haghighi, Mehrdad Dianati, Valentina Donzella, Kurt Debattista,
- Abstract要約: Lidarは、Autonomous Driving Systemsの知覚センサーの中で広く使われているセンサーである。
深層生成モデルは、現実的な感覚データを合成するための有望な解決策として現れてきた。
本稿では,Lidarシミュレーションの忠実度を高めるための統一的な生成フレームワークを提案する。
- 参考スコア(独自算出の注目度): 10.036860459686526
- License:
- Abstract: Simulation models for perception sensors are integral components of automotive simulators used for the virtual Verification and Validation (V\&V) of Autonomous Driving Systems (ADS). These models also serve as powerful tools for generating synthetic datasets to train deep learning-based perception models. Lidar is a widely used sensor type among the perception sensors for ADS due to its high precision in 3D environment scanning. However, developing realistic Lidar simulation models is a significant technical challenge. In particular, unrealistic models can result in a large gap between the synthesised and real-world point clouds, limiting their effectiveness in ADS applications. Recently, deep generative models have emerged as promising solutions to synthesise realistic sensory data. However, for Lidar simulation, deep generative models have been primarily hybridised with conventional algorithms, leaving unified generative approaches largely unexplored in the literature. Motivated by this research gap, we propose a unified generative framework to enhance Lidar simulation fidelity. Our proposed framework projects Lidar point clouds into depth-reflectance images via a lossless transformation, and employs our novel Controllable Lidar point cloud Generative model, CoLiGen, to translate the images. We extensively evaluate our CoLiGen model, comparing it with the state-of-the-art image-to-image translation models using various metrics to assess the realness, faithfulness, and performance of a downstream perception model. Our results show that CoLiGen exhibits superior performance across most metrics. The dataset and source code for this research are available at https://github.com/hamedhaghighi/CoLiGen.git.
- Abstract(参考訳): 知覚センサのシミュレーションモデルは、自律運転システム(ADS)の仮想検証・検証(V\&V)に使用される自動車シミュレータの不可欠なコンポーネントである。
これらのモデルは、ディープラーニングベースの知覚モデルをトレーニングする合成データセットを生成する強力なツールとしても機能する。
Lidarは3D環境スキャンの精度が高いため、ADSの知覚センサーの中で広く使われているセンサーである。
しかし、現実的なライダーシミュレーションモデルの開発は重要な技術的課題である。
特に、非現実的なモデルは合成された点雲と実世界の点雲の間に大きなギャップを生じさせ、ADSアプリケーションにおけるそれらの有効性を制限することができる。
近年、現実的な感覚データを合成するための有望な解決策として、深層生成モデルが登場している。
しかし、ライダーシミュレーションでは、深層生成モデルは従来のアルゴリズムと主にハイブリッド化され、統一的な生成アプローチは文献にほとんど見出されていない。
そこで本研究では,Lidarシミュレーションの忠実度を高めるための統一的な生成フレームワークを提案する。
提案するフレームワークでは,ロスレス変換による深度反射画像にLidar点雲を投影し,新しい制御可能なLidar点クラウド生成モデルであるCoLiGenを用いて画像の変換を行う。
我々はCoLiGenモデルについて、さまざまなメトリクスを用いて最新の画像から画像への変換モデルと比較し、下流認識モデルの現実性、忠実性、性能を評価する。
以上の結果から,CoLiGenはほとんどの指標において優れた性能を示した。
この研究のデータセットとソースコードはhttps://github.com/hamedhaghighi/CoLiGen.git.comで公開されている。
関連論文リスト
- Automatically Learning Hybrid Digital Twins of Dynamical Systems [56.69628749813084]
Digital Twins (DT)は、現実世界のシステムの状態と時間力学をシミュレートする。
DTは、しばしばデータスカース設定で目に見えない条件に一般化するのに苦労します。
本稿では,HDTwinsを自律的に提案し,評価し,最適化するための進化的アルゴリズム(textbfHDTwinGen$)を提案する。
論文 参考訳(メタデータ) (2024-10-31T07:28:22Z) - SimGen: Simulator-conditioned Driving Scene Generation [50.03358485083602]
シミュレーション条件付きシーン生成フレームワークSimGenを紹介する。
SimGenは、シミュレータと現実世界のデータを混ぜることで、多様な運転シーンを生成することを学ぶ。
テキストプロンプトとシミュレータからのレイアウトに基づいて制御性を保ちながら、優れた生成品質と多様性を実現する。
論文 参考訳(メタデータ) (2024-06-13T17:58:32Z) - Exploring Generative AI for Sim2Real in Driving Data Synthesis [6.769182994217369]
ドライビングシミュレータは、対応するアノテーションで様々なドライビングシナリオを自動的に生成するソリューションを提供するが、シミュレーションとリアリティ(Sim2Real)ドメインギャップは依然として課題である。
本稿では,現実的なデータセット作成のためのブリッジとして,運転シミュレータからのセマンティックラベルマップを活用するために,3つの異なる生成AI手法を適用した。
実験の結果,手動のアノテートラベルが提供されると,GANベースの手法は高品質な画像を生成するには適しているが,ControlNetは,シミュレータ生成ラベルを使用すると,より少ないアーティファクトとより構造的忠実度を持つ合成データセットを生成することがわかった。
論文 参考訳(メタデータ) (2024-04-14T01:23:19Z) - Are NeRFs ready for autonomous driving? Towards closing the real-to-simulation gap [6.393953433174051]
本稿では,実際のデータギャップに対処するための新しい視点を提案する。
自律運転環境における実シミュレーションデータギャップの大規模調査を初めて実施する。
シミュレーションデータに対するモデルロバスト性は顕著に向上し,実世界の性能も向上した。
論文 参考訳(メタデータ) (2024-03-24T11:09:41Z) - Review of the Learning-based Camera and Lidar Simulation Methods for
Autonomous Driving Systems [7.90336803821407]
本稿では,学習に基づくセンサシミュレーション手法と検証手法の現状について概説する。
これは、カメラとライダーの2種類の知覚センサーに焦点を当てている。
論文 参考訳(メタデータ) (2024-01-29T16:56:17Z) - Waymax: An Accelerated, Data-Driven Simulator for Large-Scale Autonomous
Driving Research [76.93956925360638]
Waymaxは、マルチエージェントシーンにおける自動運転のための新しいデータ駆動シミュレータである。
TPU/GPUなどのハードウェアアクセラレータで完全に動作し、トレーニング用のグラフ内シミュレーションをサポートする。
我々は、一般的な模倣と強化学習アルゴリズムのスイートをベンチマークし、異なる設計決定に関するアブレーション研究を行った。
論文 参考訳(メタデータ) (2023-10-12T20:49:15Z) - PCGen: Point Cloud Generator for LiDAR Simulation [10.692184635629792]
既存の方法は、実点雲よりもノイズが多く、完全なデータを生成する。
我々はFPAレイキャストと代理モデルレイドロップを提案する。
最小限のトレーニングデータによって、代理モデルは異なる地理やシーンに一般化することができる。
その結果、シミュレーションデータにより訓練されたオブジェクト検出モデルは、実際のデータトレーニングモデルと同じような結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-10-17T04:13:21Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - Hybrid modeling: Applications in real-time diagnosis [64.5040763067757]
我々は、機械学習にインスパイアされたモデルと物理モデルを組み合わせた、新しいハイブリッドモデリングアプローチの概要を述べる。
このようなモデルをリアルタイム診断に利用しています。
論文 参考訳(メタデータ) (2020-03-04T00:44:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。