論文の概要: Interpretable Decision-Making for End-to-End Autonomous Driving
- arxiv url: http://arxiv.org/abs/2508.18898v1
- Date: Tue, 26 Aug 2025 10:14:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.798499
- Title: Interpretable Decision-Making for End-to-End Autonomous Driving
- Title(参考訳): エンド・ツー・エンド自動運転における解釈可能な意思決定
- Authors: Mona Mirzaie, Bodo Rosenhahn,
- Abstract要約: 本稿では,自律運転における制御コマンドを最適化しながら,解釈可能性を高める手法を提案する。
本稿では,スパース・ローカライズされた特徴写像を生成することで,モデルの解釈可能性を促進する損失関数を提案する。
また,本手法は,屈折率の低減と相関し,より安全かつ高性能な駆動モデルを実現することによる解釈可能性の向上を実証する。
- 参考スコア(独自算出の注目度): 27.802136451358425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trustworthy AI is mandatory for the broad deployment of autonomous vehicles. Although end-to-end approaches derive control commands directly from raw data, interpreting these decisions remains challenging, especially in complex urban scenarios. This is mainly attributed to very deep neural networks with non-linear decision boundaries, making it challenging to grasp the logic behind AI-driven decisions. This paper presents a method to enhance interpretability while optimizing control commands in autonomous driving. To address this, we propose loss functions that promote the interpretability of our model by generating sparse and localized feature maps. The feature activations allow us to explain which image regions contribute to the predicted control command. We conduct comprehensive ablation studies on the feature extraction step and validate our method on the CARLA benchmarks. We also demonstrate that our approach improves interpretability, which correlates with reducing infractions, yielding a safer, high-performance driving model. Notably, our monocular, non-ensemble model surpasses the top-performing approaches from the CARLA Leaderboard by achieving lower infraction scores and the highest route completion rate, all while ensuring interpretability.
- Abstract(参考訳): 信頼できるAIは、自動運転車の広範な展開には必須である。
エンドツーエンドのアプローチは、生データから直接制御コマンドを導き出すが、これらの決定を解釈することは、特に複雑な都市シナリオにおいて難しいままである。
これは主に、非線形決定境界を持つ非常に深いニューラルネットワークによるもので、AI駆動決定の背後にあるロジックを理解するのが難しい。
本稿では,自律運転における制御コマンドを最適化しながら,解釈可能性を高める手法を提案する。
そこで本研究では,スパース・ローカライズされた特徴写像を生成することにより,モデルの解釈可能性を高める損失関数を提案する。
機能アクティベーションにより、予測制御コマンドにどの画像領域が寄与するかを説明できる。
我々は,特徴抽出の段階について包括的アブレーション研究を行い,CARLAベンチマーク上で本手法の有効性を検証した。
また,本手法は,屈折率の低減と相関し,より安全かつ高性能な駆動モデルを実現することによる解釈可能性の向上を実証する。
特に,我々の単分子非アンサンブルモデルは,解釈可能性を確保しつつ,低い屈折率と最高経路完成率を達成することで,CARLA Leaderboardの最高性能のアプローチを超越している。
関連論文リスト
- ImagiDrive: A Unified Imagination-and-Planning Framework for Autonomous Driving [64.12414815634847]
ビジョン・ランゲージ・モデル(VLM)とドライビング・ワールド・モデル(DWM)は、この課題のさまざまな側面に対処する強力なレシピとして独立して登場した。
我々は、VLMベースの運転エージェントとDWMベースのシーン想像装置を統合した、新しいエンドツーエンドの自動運転フレームワークであるImagiDriveを提案する。
論文 参考訳(メタデータ) (2025-08-15T12:06:55Z) - ReAL-AD: Towards Human-Like Reasoning in End-to-End Autonomous Driving [27.75047397292818]
エンドツーエンドの自動運転は、単一のフレームワーク内で認識、予測、計画を統合するための有望なアプローチとして現れています。
本稿では,3階層の認知モデルに基づいて自律運転における意思決定を構造化するReAL-ADを提案する。
我々のフレームワークを統合することで、計画の正確さと安全性が30%以上向上し、エンドツーエンドの自動運転がより解釈可能になり、人間のような階層的推論に適合することを示します。
論文 参考訳(メタデータ) (2025-07-16T02:23:24Z) - RAD: Retrieval-Augmented Decision-Making of Meta-Actions with Vision-Language Models in Autonomous Driving [10.984203470464687]
視覚言語モデル(VLM)は、空間認識の不十分さや幻覚といった限界に悩まされることが多い。
本稿では,自律走行シーンにおけるメタアクションを確実に生成するVLMの能力を高めるための,検索強化意思決定(RAD)フレームワークを提案する。
我々は,NuScenesデータセットから得られたデータセットに基づいてVLMを微調整し,その空間的知覚と鳥眼視画像理解能力を高める。
論文 参考訳(メタデータ) (2025-03-18T03:25:57Z) - DiFSD: Ego-Centric Fully Sparse Paradigm with Uncertainty Denoising and Iterative Refinement for Efficient End-to-End Self-Driving [55.53171248839489]
我々は、エンドツーエンドの自動運転のためのエゴ中心の完全スパースパラダイムであるDiFSDを提案する。
特に、DiFSDは主にスパース知覚、階層的相互作用、反復的な運動プランナーから構成される。
nuScenesとBench2Driveデータセットで実施された実験は、DiFSDの優れた計画性能と優れた効率を実証している。
論文 参考訳(メタデータ) (2024-09-15T15:55:24Z) - Exploring the Causality of End-to-End Autonomous Driving [57.631400236930375]
本稿では,エンドツーエンド自動運転の因果関係を探究し,分析するための包括的アプローチを提案する。
私たちの研究は、エンドツーエンドの自動運転の謎を初めて明らかにし、ブラックボックスを白い箱に変えた。
論文 参考訳(メタデータ) (2024-07-09T04:56:11Z) - Enhancing End-to-End Autonomous Driving with Latent World Model [78.22157677787239]
本稿では,LAW(Latent World Model)を用いたエンドツーエンド運転のための自己教師型学習手法を提案する。
LAWは、現在の特徴とエゴ軌道に基づいて将来のシーン機能を予測する。
この自己監督タスクは、知覚のない、知覚に基づくフレームワークにシームレスに統合することができる。
論文 参考訳(メタデータ) (2024-06-12T17:59:21Z) - Reason2Drive: Towards Interpretable and Chain-based Reasoning for Autonomous Driving [38.28159034562901]
Reason2Driveは600万以上のビデオテキストペアを備えたベンチマークデータセットである。
我々は、自律運転プロセスが知覚、予測、推論ステップの逐次的な組み合わせであると特徴付けている。
本稿では,自律システムにおける連鎖型推論性能を評価するための新しい集計評価指標を提案する。
論文 参考訳(メタデータ) (2023-12-06T18:32:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。