論文の概要: Exploring the Causality of End-to-End Autonomous Driving
- arxiv url: http://arxiv.org/abs/2407.06546v1
- Date: Tue, 9 Jul 2024 04:56:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 19:15:32.994233
- Title: Exploring the Causality of End-to-End Autonomous Driving
- Title(参考訳): エンド・ツー・エンド自動運転の因果性を探る
- Authors: Jiankun Li, Hao Li, Jiangjiang Liu, Zhikang Zou, Xiaoqing Ye, Fan Wang, Jizhou Huang, Hua Wu, Haifeng Wang,
- Abstract要約: 本稿では,エンドツーエンド自動運転の因果関係を探究し,分析するための包括的アプローチを提案する。
私たちの研究は、エンドツーエンドの自動運転の謎を初めて明らかにし、ブラックボックスを白い箱に変えた。
- 参考スコア(独自算出の注目度): 57.631400236930375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based models are widely deployed in autonomous driving areas, especially the increasingly noticed end-to-end solutions. However, the black-box property of these models raises concerns about their trustworthiness and safety for autonomous driving, and how to debug the causality has become a pressing concern. Despite some existing research on the explainability of autonomous driving, there is currently no systematic solution to help researchers debug and identify the key factors that lead to the final predicted action of end-to-end autonomous driving. In this work, we propose a comprehensive approach to explore and analyze the causality of end-to-end autonomous driving. First, we validate the essential information that the final planning depends on by using controlled variables and counterfactual interventions for qualitative analysis. Then, we quantitatively assess the factors influencing model decisions by visualizing and statistically analyzing the response of key model inputs. Finally, based on the comprehensive study of the multi-factorial end-to-end autonomous driving system, we have developed a strong baseline and a tool for exploring causality in the close-loop simulator CARLA. It leverages the essential input sources to obtain a well-designed model, resulting in highly competitive capabilities. As far as we know, our work is the first to unveil the mystery of end-to-end autonomous driving and turn the black box into a white one. Thorough close-loop experiments demonstrate that our method can be applied to end-to-end autonomous driving solutions for causality debugging. Code will be available at https://github.com/bdvisl/DriveInsight.
- Abstract(参考訳): ディープラーニングベースのモデルは、自動運転分野、特に注目されているエンドツーエンドソリューションに広くデプロイされている。
しかしながら、これらのモデルのブラックボックス特性は、自律運転の信頼性と安全性に関する懸念を提起し、因果関係のデバッグ方法が懸念されている。
自動運転車の説明可能性に関する既存の研究はいくつかあるが、現在、研究者が最終予想されるエンドツーエンドの自動運転の動作につながる主要な要因をデバッグし特定するための体系的な解決策はない。
本研究では,エンドツーエンド自動運転の因果性を探究し,分析するための総合的なアプローチを提案する。
まず,定性解析のための制御変数と対実的介入を用いることで,最終計画が依存する重要な情報を検証する。
そして,キーモデル入力の応答を可視化し,統計的に解析することにより,モデル決定に影響を与える要因を定量的に評価する。
最後に,多要素エンド・ツー・エンド自動運転システムの総合的な研究に基づいて,クローズループシミュレータCARLAの因果関係を探索する強力なベースラインとツールを開発した。
本質的な入力源を活用して、十分に設計されたモデルを得ることができ、結果として高い競争力が得られる。
私たちが知る限りでは、私たちの研究は、エンドツーエンドの自動運転の謎を初めて明らかにし、ブラックボックスを白い箱に変えた。
詳細なクローズループ実験により,本手法をエンド・ツー・エンドの自律運転ソリューションに適用し,因果デバッグを行えることを示した。
コードはhttps://github.com/bdvisl/DriveInsightで入手できる。
関連論文リスト
- Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Incorporating Explanations into Human-Machine Interfaces for Trust and Situation Awareness in Autonomous Vehicles [4.1636282808157254]
自動車の自律性に対する信頼構築において、説明可能なAIとヒューマン・マシン・インタフェースが共に果たす役割について検討する。
自動運転行動に対するユーザの信頼度を調整するための状況認識フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-10T23:02:13Z) - DriveCoT: Integrating Chain-of-Thought Reasoning with End-to-End Driving [81.04174379726251]
本稿では,DriveCoTというエンド・ツー・エンドの運転データセットを総合的に収集する。
センサーデータ、制御決定、および推論プロセスを示すチェーン・オブ・シークレット・ラベルが含まれている。
我々は,私たちのデータセットに基づいてトレーニングされたDriveCoT-Agentと呼ばれるベースラインモデルを提案し,連鎖予測と最終決定を生成する。
論文 参考訳(メタデータ) (2024-03-25T17:59:01Z) - DME-Driver: Integrating Human Decision Logic and 3D Scene Perception in
Autonomous Driving [65.04871316921327]
本稿では,自律運転システムの性能と信頼性を高める新しい自律運転システムを提案する。
DME-Driverは、意思決定者として強力な視覚言語モデル、制御信号生成者として計画指向認識モデルを利用する。
このデータセットを利用することで、論理的思考プロセスを通じて高精度な計画精度を実現する。
論文 参考訳(メタデータ) (2024-01-08T03:06:02Z) - Reason2Drive: Towards Interpretable and Chain-based Reasoning for Autonomous Driving [38.28159034562901]
Reason2Driveは600万以上のビデオテキストペアを備えたベンチマークデータセットである。
我々は、自律運転プロセスが知覚、予測、推論ステップの逐次的な組み合わせであると特徴付けている。
本稿では,自律システムにおける連鎖型推論性能を評価するための新しい集計評価指標を提案する。
論文 参考訳(メタデータ) (2023-12-06T18:32:33Z) - LLM4Drive: A Survey of Large Language Models for Autonomous Driving [62.10344445241105]
大規模言語モデル(LLM)は、文脈理解、論理的推論、回答生成などの能力を示した。
本稿では,自動走行のための大規模言語モデル (LLM4AD) に関する研究ラインを体系的にレビューする。
論文 参考訳(メタデータ) (2023-11-02T07:23:33Z) - Recent Advancements in End-to-End Autonomous Driving using Deep
Learning: A Survey [9.385936248154987]
エンド・ツー・エンドの運転は、モジュラーシステムに関連する欠点を回避するため、有望なパラダイムである。
エンド・ツー・エンド自動運転の最近の進歩は分析され、基礎原理に基づいて研究が分類される。
本稿では,最先端の評価,課題の特定,今後の可能性を探る。
論文 参考訳(メタデータ) (2023-07-10T07:00:06Z) - End-to-end Autonomous Driving: Challenges and Frontiers [45.391430626264764]
エンドツーエンドの自動運転におけるモチベーション、ロードマップ、方法論、課題、今後のトレンドについて、270以上の論文を包括的に分析する。
マルチモダリティ、解釈可能性、因果的混乱、堅牢性、世界モデルなど、いくつかの重要な課題を掘り下げます。
基礎モデルと視覚前訓練の現在の進歩と、これらの技術をエンドツーエンドの駆動フレームワークに組み込む方法について論じる。
論文 参考訳(メタデータ) (2023-06-29T14:17:24Z) - Self-Aware Trajectory Prediction for Safe Autonomous Driving [9.868681330733764]
軌道予測は、自動運転ソフトウェアスタックの重要なコンポーネントの1つである。
本稿では,自己認識軌道予測手法を提案する。
提案手法は, 自己認識, メモリフットプリント, リアルタイム性能で良好に動作した。
論文 参考訳(メタデータ) (2023-05-16T03:53:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。