論文の概要: Integrating Multi-Modal Sensors: A Review of Fusion Techniques for Intelligent Vehicles
- arxiv url: http://arxiv.org/abs/2506.21885v1
- Date: Fri, 27 Jun 2025 03:43:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:23.076081
- Title: Integrating Multi-Modal Sensors: A Review of Fusion Techniques for Intelligent Vehicles
- Title(参考訳): マルチモーダルセンサの統合:インテリジェント自動車の融合技術について
- Authors: Chuheng Wei, Ziye Qin, Ziyan Zhang, Guoyuan Wu, Matthew J. Barth,
- Abstract要約: マルチセンサー融合は、自律運転の知覚を高める上で重要な役割を担っている。
本稿では,マルチセンサ融合戦略をデータレベル,特徴レベル,決定レベルカテゴリに形式化する。
我々は、重要なマルチモーダルデータセットを提示し、現実の課題に対処する上で、それらの適用性について議論する。
- 参考スコア(独自算出の注目度): 11.412978676426205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-sensor fusion plays a critical role in enhancing perception for autonomous driving, overcoming individual sensor limitations, and enabling comprehensive environmental understanding. This paper first formalizes multi-sensor fusion strategies into data-level, feature-level, and decision-level categories and then provides a systematic review of deep learning-based methods corresponding to each strategy. We present key multi-modal datasets and discuss their applicability in addressing real-world challenges, particularly in adverse weather conditions and complex urban environments. Additionally, we explore emerging trends, including the integration of Vision-Language Models (VLMs), Large Language Models (LLMs), and the role of sensor fusion in end-to-end autonomous driving, highlighting its potential to enhance system adaptability and robustness. Our work offers valuable insights into current methods and future directions for multi-sensor fusion in autonomous driving.
- Abstract(参考訳): マルチセンサー融合は、自律運転の知覚を高め、個々のセンサーの限界を克服し、包括的な環境理解を可能にする上で重要な役割を担っている。
本稿ではまず,マルチセンサ融合戦略をデータレベル,特徴レベル,意思決定レベルに形式化し,各戦略に対応する深層学習手法の体系的レビューを行う。
重要なマルチモーダルデータセットを提示し、特に悪天候や複雑な都市環境において、現実世界の課題に対処する上で、それらの適用性について論じる。
さらに、視覚言語モデル(VLM)の統合、Large Language Model(LLM)の統合、エンドツーエンドの自動運転におけるセンサフュージョンの役割など、新たなトレンドを探求し、システムの適応性と堅牢性を高める可能性を強調した。
我々の研究は、自律運転におけるマルチセンサー融合の現在の方法と今後の方向性に関する貴重な洞察を提供する。
関連論文リスト
- A Survey of World Models for Autonomous Driving [63.33363128964687]
自律運転の最近の進歩は、堅牢な世界モデリングの進歩によって推進されている。
世界モデルは、マルチセンサーデータ、セマンティックキュー、時間ダイナミクスを統合する駆動環境の高忠実度表現を提供する。
本稿では、自律運転の世界モデルにおける最近の進歩を体系的にレビューする。
論文 参考訳(メタデータ) (2025-01-20T04:00:02Z) - Graph-Based Multi-Modal Sensor Fusion for Autonomous Driving [3.770103075126785]
本稿では,グラフに基づく状態表現の開発に焦点をあてた,マルチモーダルセンサ融合に対する新しいアプローチを提案する。
本稿では,マルチモーダルグラフを融合する最初のオンライン状態推定手法であるSensor-Agnostic Graph-Aware Kalman Filterを提案する。
提案手法の有効性を,合成および実世界の運転データセットを用いた広範囲な実験により検証した。
論文 参考訳(メタデータ) (2024-11-06T06:58:17Z) - Exploring the Interplay Between Video Generation and World Models in Autonomous Driving: A Survey [61.39993881402787]
世界モデルとビデオ生成は、自動運転の領域において重要な技術である。
本稿では,この2つの技術の関係について検討する。
映像生成モデルと世界モデルとの相互作用を分析することにより,重要な課題と今後の研究方向性を明らかにする。
論文 参考訳(メタデータ) (2024-11-05T08:58:35Z) - Drive Anywhere: Generalizable End-to-end Autonomous Driving with
Multi-modal Foundation Models [114.69732301904419]
本稿では、画像とテキストで検索可能な表現から、運転決定を提供することができる、エンドツーエンドのオープンセット(環境/シーン)自律運転を適用するアプローチを提案する。
当社のアプローチでは, 多様なテストにおいて非並列的な結果を示すと同時に, アウト・オブ・ディストリビューションの状況において, はるかに高いロバスト性を実現している。
論文 参考訳(メタデータ) (2023-10-26T17:56:35Z) - Penalty-Based Imitation Learning With Cross Semantics Generation Sensor
Fusion for Autonomous Driving [1.2749527861829049]
本稿では,複数の情報モダリティを統合するために,ペナルティに基づく模倣学習手法を提案する。
最新技術(SOTA)モデルであるInterFuserと比較して,運転スコアが12%以上増加していることが観察された。
本モデルでは, 推論速度を7倍に向上し, モデルサイズを約30%削減しながら, この性能向上を実現している。
論文 参考訳(メタデータ) (2023-03-21T14:29:52Z) - Multi-modal Sensor Fusion for Auto Driving Perception: A Survey [29.804411344922382]
本稿では,自律運転における知覚課題に対する既存のマルチモーダル方式の文献的考察を行う。
融合段階の観点から,より合理的な分類法により,これらを2つの主要なクラス,4つのマイナークラスに分割する革新的な方法を提案する。
論文 参考訳(メタデータ) (2022-02-06T04:18:45Z) - Learning Selective Sensor Fusion for States Estimation [47.76590539558037]
本稿では,エンド・ツー・エンドのセンサ・フュージョン・モジュールであるSelectFusionを提案する。
予測中、ネットワークは異なるセンサーモードから潜伏する特徴の信頼性を評価することができる。
我々は、公開データセットと漸進的に劣化したデータセットの両方において、すべての融合戦略を広範囲に評価する。
論文 参考訳(メタデータ) (2019-12-30T20:25:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。