論文の概要: Towards Safer and Understandable Driver Intention Prediction
- arxiv url: http://arxiv.org/abs/2510.09200v1
- Date: Fri, 10 Oct 2025 09:41:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 04:53:46.935751
- Title: Towards Safer and Understandable Driver Intention Prediction
- Title(参考訳): 安全と認識不能運転者の意図予測に向けて
- Authors: Mukilan Karuppasamy, Shankar Gangisetty, Shyam Nandan Rai, Carlo Masone, C V Jawahar,
- Abstract要約: 運転者の安全のために,運転予測における解釈可能性の課題を紹介する。
解釈可能なDIPの研究を促進するために,新たなマルチモーダル・エゴ中心のビデオデータセットであるDAAD-Xをキュレートする。
次に,コヒーレントな説明を本質的に生成するフレームワークとして,ビデオコンセプト・ボトルネック・モデル(VCBM)を提案する。
- 参考スコア(独自算出の注目度): 30.136400523083907
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous driving (AD) systems are becoming increasingly capable of handling complex tasks, mainly due to recent advances in deep learning and AI. As interactions between autonomous systems and humans increase, the interpretability of decision-making processes in driving systems becomes increasingly crucial for ensuring safe driving operations. Successful human-machine interaction requires understanding the underlying representations of the environment and the driving task, which remains a significant challenge in deep learning-based systems. To address this, we introduce the task of interpretability in maneuver prediction before they occur for driver safety, i.e., driver intent prediction (DIP), which plays a critical role in AD systems. To foster research in interpretable DIP, we curate the eXplainable Driving Action Anticipation Dataset (DAAD-X), a new multimodal, ego-centric video dataset to provide hierarchical, high-level textual explanations as causal reasoning for the driver's decisions. These explanations are derived from both the driver's eye-gaze and the ego-vehicle's perspective. Next, we propose Video Concept Bottleneck Model (VCBM), a framework that generates spatio-temporally coherent explanations inherently, without relying on post-hoc techniques. Finally, through extensive evaluations of the proposed VCBM on the DAAD-X dataset, we demonstrate that transformer-based models exhibit greater interpretability than conventional CNN-based models. Additionally, we introduce a multilabel t-SNE visualization technique to illustrate the disentanglement and causal correlation among multiple explanations. Our data, code and models are available at: https://mukil07.github.io/VCBM.github.io/
- Abstract(参考訳): 自律運転(AD)システムは、ディープラーニングとAIの最近の進歩により、複雑なタスクを扱う能力がますます高まっている。
自律システムと人間との相互作用が増加するにつれて、運転システムにおける意思決定プロセスの解釈可能性は、安全な運転操作を確保するためにますます重要になる。
人間と機械の相互作用を成功させるには、環境と運転タスクの基盤となる表現を理解する必要があるが、これはディープラーニングベースのシステムにおいて重要な課題である。
そこで本研究では,ADシステムにおいて重要な役割を果たすドライバ意図予測(DIP)において,運転者の安全に先立つ操作予測における解釈可能性の課題を紹介する。
解釈可能なDIPの研究を促進するため,ドライバーの判断の因果的推論として階層的で高レベルなテキスト説明を提供するために,新しいマルチモーダルなエゴ中心のビデオデータセットであるeXplainable Driving Action Precipation Dataset (DAAD-X) をキュレートする。
これらの説明は、ドライバーの視線とエゴ車両の視点の両方から導かれる。
次に,ポストホック技術に頼らずに時空間的に一貫した説明を本質的に生成するフレームワークであるビデオコンセプト・ボトルネック・モデル(VCBM)を提案する。
最後に、DAAD-Xデータセット上で提案したVCBMを広範囲に評価することにより、トランスフォーマーベースモデルが従来のCNNベースモデルよりも高い解釈性を示すことを示す。
さらに,複数説明間の絡み合いと因果関係を示すマルチラベルt-SNE可視化手法を提案する。
私たちのデータ、コード、モデルは、https://mukil07.github.io/VCBM.github.io/で利用可能です。
関連論文リスト
- ImagiDrive: A Unified Imagination-and-Planning Framework for Autonomous Driving [64.12414815634847]
ビジョン・ランゲージ・モデル(VLM)とドライビング・ワールド・モデル(DWM)は、この課題のさまざまな側面に対処する強力なレシピとして独立して登場した。
我々は、VLMベースの運転エージェントとDWMベースのシーン想像装置を統合した、新しいエンドツーエンドの自動運転フレームワークであるImagiDriveを提案する。
論文 参考訳(メタデータ) (2025-08-15T12:06:55Z) - ReCogDrive: A Reinforced Cognitive Framework for End-to-End Autonomous Driving [49.07731497951963]
ReCogDriveは、エンドツーエンドの自動運転のための新しい強化認知フレームワークである。
我々は、人間のドライバーのシーケンシャルな認知過程を模倣する階層的なデータパイプラインを導入する。
次に、VLMの学習した運転先を拡散プランナーに注入することで、言語行動ミスマッチに対処する。
論文 参考訳(メタデータ) (2025-06-09T03:14:04Z) - Exploring the Causality of End-to-End Autonomous Driving [57.631400236930375]
本稿では,エンドツーエンド自動運転の因果関係を探究し,分析するための包括的アプローチを提案する。
私たちの研究は、エンドツーエンドの自動運転の謎を初めて明らかにし、ブラックボックスを白い箱に変えた。
論文 参考訳(メタデータ) (2024-07-09T04:56:11Z) - On depth prediction for autonomous driving using self-supervised
learning [0.0]
この論文は、単眼の自己教師型学習技術を用いた深度予測の課題に焦点を当てている。
この問題は、条件付き生成逆ネットワーク(cGAN)を探索する、より広い視点からアプローチされる。
第2のコントリビューションは、厳密な前提に対する解決策を提案する、単一のイメージ・ツー・ディープス・セルフ教師方式を含む。
3つ目の重要な側面は、ビデオから深度マップの予測アプローチの導入である。
論文 参考訳(メタデータ) (2024-03-10T12:33:12Z) - Reason2Drive: Towards Interpretable and Chain-based Reasoning for Autonomous Driving [38.28159034562901]
Reason2Driveは600万以上のビデオテキストペアを備えたベンチマークデータセットである。
我々は、自律運転プロセスが知覚、予測、推論ステップの逐次的な組み合わせであると特徴付けている。
本稿では,自律システムにおける連鎖型推論性能を評価するための新しい集計評価指標を提案する。
論文 参考訳(メタデータ) (2023-12-06T18:32:33Z) - On the Road with GPT-4V(ision): Early Explorations of Visual-Language
Model on Autonomous Driving [37.617793990547625]
本報告では,最新のVLMであるGPT-4Vの徹底的な評価を行う。
我々は、シーンを駆動し、決定を下し、最終的にはドライバーの能力で行動する、モデルを理解する能力について探求する。
GPT-4Vは,既存の自律システムと比較して,シーン理解や因果推論において優れた性能を示した。
論文 参考訳(メタデータ) (2023-11-09T12:58:37Z) - LLM4Drive: A Survey of Large Language Models for Autonomous Driving [62.10344445241105]
大規模言語モデル(LLM)は、文脈理解、論理的推論、回答生成などの能力を示した。
本稿では,自動走行のための大規模言語モデル (LLM4AD) に関する研究ラインを体系的にレビューする。
論文 参考訳(メタデータ) (2023-11-02T07:23:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。