論文の概要: Data-driven Camera and Lidar Simulation Models for Autonomous Driving: A Review from Generative Models to Volume Renderers
- arxiv url: http://arxiv.org/abs/2402.10079v2
- Date: Fri, 21 Mar 2025 14:13:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 14:53:59.513803
- Title: Data-driven Camera and Lidar Simulation Models for Autonomous Driving: A Review from Generative Models to Volume Renderers
- Title(参考訳): データ駆動型カメラとライダーによる自律走行シミュレーションモデル:生成モデルからボリュームレンダへのレビュー
- Authors: Hamed Haghighi, Xiaomeng Wang, Hao Jing, Mehrdad Dianati,
- Abstract要約: 本稿では,現在の最先端データ駆動カメラとLidarシミュレーションモデルとその評価手法について述べる。
生成モデルとボリュームの新たな視点から、モデルのスペクトルを探索する。
- 参考スコア(独自算出の注目度): 7.90336803821407
- License:
- Abstract: Perception sensors, particularly camera and Lidar, are key elements of Autonomous Driving Systems (ADS) that enable them to comprehend their surroundings to informed driving and control decisions. Therefore, developing realistic simulation models for these sensors is essential for conducting effective simulation-based testing of ADS. Moreover, the rise of deep learning-based perception models has increased the utility of sensor simulation models for synthesising diverse training datasets. The traditional sensor simulation models rely on computationally expensive physics-based algorithms, specifically in complex systems such as ADS. Hence, the current potential resides in data-driven approaches, fuelled by the exceptional performance of deep generative models in capturing high-dimensional data distribution and volume renderers in accurately representing scenes. This paper reviews the current state-of-the-art data-driven camera and Lidar simulation models and their evaluation methods. It explores a spectrum of models from the novel perspective of generative models and volume renderers. Generative models are discussed in terms of their input-output types, while volume renderers are categorised based on their input encoding. Finally, the paper illustrates commonly used evaluation techniques for assessing sensor simulation models and highlights the existing research gaps in the area.
- Abstract(参考訳): 知覚センサー、特にカメラとライダーは、自律運転システム(ADS)の重要な要素であり、周囲を理解でき、運転や制御の判断を通知することができる。
したがって、これらのセンサの現実的なシミュレーションモデルを開発することは、ADSの効果的なシミュレーションベースのテストを実行する上で不可欠である。
さらに、深層学習に基づく知覚モデルの台頭は、多様なトレーニングデータセットを合成するためのセンサーシミュレーションモデルの有用性を高めた。
従来のセンサーシミュレーションモデルは計算コストの高い物理ベースのアルゴリズム、特にADSのような複雑なシステムに依存している。
したがって、現在のポテンシャルは、高次元のデータ分布とボリュームレンダラーを正確に表現する際、深層生成モデルの例外的な性能に支えられ、データ駆動のアプローチにある。
本稿では,現在の最先端データ駆動カメラとLidarシミュレーションモデルとその評価手法について述べる。
生成モデルとボリュームレンダラーの新しい視点から、モデルのスペクトルを探索する。
生成モデルは入力出力型の観点から議論され、ボリュームレンダラーは入力エンコーディングに基づいて分類される。
最後に,センサシミュレーションモデルの評価に広く用いられている手法について述べるとともに,その領域における既存の研究ギャップを明らかにする。
関連論文リスト
- What Really Matters for Learning-based LiDAR-Camera Calibration [50.2608502974106]
本稿では,学習に基づくLiDAR-Cameraキャリブレーションの開発を再考する。
我々は、広く使われているデータ生成パイプラインによる回帰ベースの手法の限界を識別する。
また,入力データ形式と前処理操作がネットワーク性能に与える影響についても検討する。
論文 参考訳(メタデータ) (2025-01-28T14:12:32Z) - Hierarchical and Decoupled BEV Perception Learning Framework for Autonomous Driving [52.808273563372126]
本稿では,基本認識モジュールとユーザフレンドリなグラフィカルインタフェースのライブラリの提供を目的とした,新しい階層的BEV知覚パラダイムを提案する。
我々は,大規模公開データセットと合理化開発プロセスを効果的に活用するために,Pretrain-Finetune戦略を実行している。
また、マルチモジュールラーニング(MML)アプローチを提案し、複数のモデルの相乗的かつ反復的な訓練により性能を向上させる。
論文 参考訳(メタデータ) (2024-07-17T11:17:20Z) - InfRS: Incremental Few-Shot Object Detection in Remote Sensing Images [11.916941756499435]
本稿では,リモートセンシング画像におけるインクリメンタルな数ショット物体検出の複雑な課題について検討する。
本稿では,新しい授業の漸進的な学習を促進するために,InfRSと呼ばれる先駆的な微調整技術を導入する。
我々はワッサーシュタイン距離に基づく原型校正戦略を開発し、破滅的な忘れ問題を軽減する。
論文 参考訳(メタデータ) (2024-05-18T13:39:50Z) - Physics Sensor Based Deep Learning Fall Detection System [0.9128828609564524]
我々は,組込みセンサを用いたデータ受信装置を備えたTSFallDetectというシステムを構築した。
我々は、慣性およびフィルム圧力センサによって収集されたデータに基づいて、この降下動作予測問題に対処するために、シーケンシャルな深層学習手法を利用する。
論文 参考訳(メタデータ) (2024-02-29T07:50:06Z) - A Unified Generative Framework for Realistic Lidar Simulation in Autonomous Driving Systems [10.036860459686526]
Lidarは、Autonomous Driving Systemsの知覚センサーの中で広く使われているセンサーである。
深層生成モデルは、現実的な感覚データを合成するための有望な解決策として現れてきた。
本稿では,Lidarシミュレーションの忠実度を高めるための統一的な生成フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-25T21:55:00Z) - Reinforcement Learning with Human Feedback for Realistic Traffic
Simulation [53.85002640149283]
効果的なシミュレーションの鍵となる要素は、人間の知識と整合した現実的な交通モデルの導入である。
本研究では,現実主義に対する人間の嗜好のニュアンスを捉えることと,多様な交通シミュレーションモデルを統合することの2つの主な課題を明らかにする。
論文 参考訳(メタデータ) (2023-09-01T19:29:53Z) - Robustness and Generalization Performance of Deep Learning Models on
Cyber-Physical Systems: A Comparative Study [71.84852429039881]
調査は、センサーの故障やノイズなど、様々な摂動を扱うモデルの能力に焦点を当てている。
我々は,これらのモデルの一般化と伝達学習能力を,アウト・オブ・ディストリビューション(OOD)サンプルに公開することによって検証する。
論文 参考訳(メタデータ) (2023-06-13T12:43:59Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z) - Improving Robot Dual-System Motor Learning with Intrinsically Motivated
Meta-Control and Latent-Space Experience Imagination [17.356402088852423]
本稿では,メタコントローラがモデルベースとモデルフリーの判断をオンラインに調停する,新しいデュアルシステムモーター学習手法を提案する。
シミュレーションと実世界における視覚に基づくロボットグリップ学習におけるベースラインと最先端の手法に対する我々のアプローチを評価する。
論文 参考訳(メタデータ) (2020-04-19T12:14:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。