論文の概要: Safety Implications of Explainable Artificial Intelligence in End-to-End Autonomous Driving
- arxiv url: http://arxiv.org/abs/2403.12176v2
- Date: Tue, 7 May 2024 22:55:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-09 18:50:56.589865
- Title: Safety Implications of Explainable Artificial Intelligence in End-to-End Autonomous Driving
- Title(参考訳): エンド・ツー・エンド自動運転における説明可能な人工知能の安全性
- Authors: Shahin Atakishiyev, Mohammad Salameh, Randy Goebel,
- Abstract要約: エンドツーエンドの学習パイプラインは、高度に自律的な車両の開発におけるパラダイムシフトを徐々に生み出している。
現代の学習手法によるリアルタイム意思決定における解釈可能性の欠如は、ユーザの信頼を阻害し、そのような車両の広範な展開と商業化を阻害する。
この調査は、質問に答えようとしている。いつ、どのように説明がエンドツーエンドの自動運転の安全性を改善することができるのか?
- 参考スコア(独自算出の注目度): 4.1636282808157254
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The end-to-end learning pipeline is gradually creating a paradigm shift in the ongoing development of highly autonomous vehicles, largely due to advances in deep learning, the availability of large-scale training datasets, and improvements in integrated sensor devices. However, a lack of interpretability in real-time decisions with contemporary learning methods impedes user trust and attenuates the widespread deployment and commercialization of such vehicles. Moreover, the issue is exacerbated when these cars are involved in or cause traffic accidents. Such drawback raises serious safety concerns from societal and legal perspectives. Consequently, explainability in end-to-end autonomous driving is essential to build trust in vehicular automation. However, the safety and explainability aspects of end-to-end driving have generally been investigated disjointly by researchers in today's state of the art. This survey aims to bridge the gaps between these topics and seeks to answer the following research question: When and how can explanations improve safety of end-to-end autonomous driving? In this regard, we first revisit established safety and state-of-the-art explainability techniques in end-to-end driving. Furthermore, we present three critical case studies and show the pivotal role of explanations in enhancing self-driving safety. Finally, we describe insights from empirical studies and reveal potential value, limitations, and caveats of practical explainable AI methods with respect to their safety assurance in end-to-end autonomous driving.
- Abstract(参考訳): エンド・ツー・エンドの学習パイプラインは、ディープラーニングの進歩、大規模トレーニングデータセットの可用性、統合センサーデバイスの改善など、高度自動運転車の継続的な開発におけるパラダイムシフトを徐々に生み出している。
しかし、現代の学習手法によるリアルタイム意思決定における解釈可能性の欠如は、ユーザの信頼を阻害し、そのような車両の普及と商業化を阻害する。
さらに、これらの車両が交通事故に巻き込まれたり、事故を起こしたりする場合には、この問題が悪化する。
このような欠点は、社会的および法的観点から深刻な安全上の懸念を提起する。
したがって、車両の自動化に対する信頼を構築するためには、エンドツーエンドの自動運転における説明責任が不可欠である。
しかしながら、エンド・ツー・エンド・ドライブの安全性と説明可能性の側面は、今日の最先端の研究者によって概して不一致に研究されている。
この調査は、これらのトピック間のギャップを埋めることを目的としており、以下の研究課題に答えようとしている。
そこで本研究では,エンド・ツー・エンド・ドライブにおける安全性と最新技術の説明可能性について再考する。
さらに,3つの重要なケーススタディを提示し,自動運転車の安全性向上における説明の要点を示す。
最後に、実証研究から得られた洞察を記述し、エンドツーエンドの自動運転における安全性の保証に関して、実用的な説明可能なAI手法の潜在的な価値、限界、注意点を明らかにする。
関連論文リスト
- Exploring the Causality of End-to-End Autonomous Driving [57.631400236930375]
本稿では,エンドツーエンド自動運転の因果関係を探究し,分析するための包括的アプローチを提案する。
私たちの研究は、エンドツーエンドの自動運転の謎を初めて明らかにし、ブラックボックスを白い箱に変えた。
論文 参考訳(メタデータ) (2024-07-09T04:56:11Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Incorporating Explanations into Human-Machine Interfaces for Trust and Situation Awareness in Autonomous Vehicles [4.1636282808157254]
自動車の自律性に対する信頼構築において、説明可能なAIとヒューマン・マシン・インタフェースが共に果たす役割について検討する。
自動運転行動に対するユーザの信頼度を調整するための状況認識フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-10T23:02:13Z) - Evaluation of Safety Constraints in Autonomous Navigation with Deep
Reinforcement Learning [62.997667081978825]
学習可能なナビゲーションポリシとして,セーフとアンセーフの2つを比較します。
安全なポリシは、制約をアカウントに含めますが、もう一方はそうではありません。
安全政策は、よりクリアランスの高い軌道を生成することができ(障害物によらず)、全体的な性能を犠牲にすることなく、トレーニング中に衝突を減らすことができることを示す。
論文 参考訳(メタデータ) (2023-07-27T01:04:57Z) - Recent Advancements in End-to-End Autonomous Driving using Deep
Learning: A Survey [9.385936248154987]
エンド・ツー・エンドの運転は、モジュラーシステムに関連する欠点を回避するため、有望なパラダイムである。
エンド・ツー・エンド自動運転の最近の進歩は分析され、基礎原理に基づいて研究が分類される。
本稿では,最先端の評価,課題の特定,今後の可能性を探る。
論文 参考訳(メタデータ) (2023-07-10T07:00:06Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Differentiable Control Barrier Functions for Vision-based End-to-End
Autonomous Driving [100.57791628642624]
本稿では,視覚に基づくエンドツーエンド自動運転のための安全保証学習フレームワークを提案する。
我々は、勾配降下によりエンドツーエンドに訓練された微分制御バリア関数(dCBF)を備えた学習システムを設計する。
論文 参考訳(メタデータ) (2022-03-04T16:14:33Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - Explainability of vision-based autonomous driving systems: Review and
challenges [33.720369945541805]
説明可能性の必要性は運転で強く、安全クリティカルなアプリケーションです。
この調査は、コンピュータビジョン、ディープラーニング、自動運転、説明可能なAI(X-AI)など、いくつかの研究分野から貢献を集めています。
論文 参考訳(メタデータ) (2021-01-13T19:09:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。