論文の概要: Safety Implications of Explainable Artificial Intelligence in End-to-End Autonomous Driving
- arxiv url: http://arxiv.org/abs/2403.12176v3
- Date: Tue, 14 Jan 2025 22:44:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-16 15:50:03.244334
- Title: Safety Implications of Explainable Artificial Intelligence in End-to-End Autonomous Driving
- Title(参考訳): エンド・ツー・エンド自動運転における説明可能な人工知能の安全性
- Authors: Shahin Atakishiyev, Mohammad Salameh, Randy Goebel,
- Abstract要約: 本稿では,エンド・ツー・エンドの自動運転における説明の安全性への影響について述べる。
我々はまず、エンド・ツー・エンドの運転における安全と説明可能性の概念を再考し、また、自動運転の安全性向上における説明の要点を示す。
- 参考スコア(独自算出の注目度): 4.1636282808157254
- License:
- Abstract: The end-to-end learning pipeline is gradually creating a paradigm shift in the ongoing development of highly autonomous vehicles, largely due to advances in deep learning, the availability of large-scale training datasets, and improvements in integrated sensor devices. However, a lack of explainability in real-time decisions with contemporary learning methods impedes user trust and attenuates the widespread deployment and commercialization of such vehicles. Moreover, the issue is exacerbated when these cars are involved in or cause traffic accidents. Consequently, explainability in end-to-end autonomous driving is essential to build trust in vehicular automation. With that said, automotive researchers have not yet rigorously explored safety benefits and consequences of explanations in end-to-end autonomous driving. This paper aims to bridge the gaps between these topics and seeks to answer the following research question: What are safety implications of explanations in end-to-end autonomous driving? In this regard, we first revisit established safety and explainability concepts in end-to-end driving. Furthermore, we present three critical case studies and show the pivotal role of explanations in enhancing self-driving safety. Finally, we describe insights from empirical studies and reveal potential value, limitations, and caveats of practical explainable AI methods with respect to their safety assurance in end-to-end driving.
- Abstract(参考訳): エンド・ツー・エンドの学習パイプラインは、ディープラーニングの進歩、大規模トレーニングデータセットの可用性、統合センサーデバイスの改善など、高度自動運転車の継続的な開発におけるパラダイムシフトを徐々に生み出している。
しかし、現代の学習手法によるリアルタイム意思決定における説明可能性の欠如は、ユーザの信頼を阻害し、そのような車両の普及と商業化を阻害する。
さらに、これらの車両が交通事故に巻き込まれたり、事故を起こしたりする場合には、この問題が悪化する。
したがって、車両の自動化に対する信頼を構築するためには、エンドツーエンドの自動運転における説明責任が不可欠である。
それにもかかわらず、自動車研究者は、エンドツーエンドの自動運転における安全性と説明の結果について、厳格に検討していない。
本稿は、これらのトピック間のギャップを埋めることを目的としており、以下の研究課題に答えようとしている。
本稿では,エンド・ツー・エンド・ドライブにおける安全性と説明可能性の概念を再考する。
さらに,3つの重要なケーススタディを提示し,自動運転車の安全性向上における説明の要点を示す。
最後に、実証研究から得られた洞察を記述し、エンド・ツー・エンドの運転における安全性の保証に関して、実用的な説明可能なAI手法の潜在的な価値、限界、注意点を明らかにする。
関連論文リスト
- Exploring the Causality of End-to-End Autonomous Driving [57.631400236930375]
本稿では,エンドツーエンド自動運転の因果関係を探究し,分析するための包括的アプローチを提案する。
私たちの研究は、エンドツーエンドの自動運転の謎を初めて明らかにし、ブラックボックスを白い箱に変えた。
論文 参考訳(メタデータ) (2024-07-09T04:56:11Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Incorporating Explanations into Human-Machine Interfaces for Trust and Situation Awareness in Autonomous Vehicles [4.1636282808157254]
自動車の自律性に対する信頼構築において、説明可能なAIとヒューマン・マシン・インタフェースが共に果たす役割について検討する。
自動運転行動に対するユーザの信頼度を調整するための状況認識フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-10T23:02:13Z) - Recent Advancements in End-to-End Autonomous Driving using Deep
Learning: A Survey [9.385936248154987]
エンド・ツー・エンドの運転は、モジュラーシステムに関連する欠点を回避するため、有望なパラダイムである。
エンド・ツー・エンド自動運転の最近の進歩は分析され、基礎原理に基づいて研究が分類される。
本稿では,最先端の評価,課題の特定,今後の可能性を探る。
論文 参考訳(メタデータ) (2023-07-10T07:00:06Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [50.936478241688114]
非客観的運転経験のモデル化は困難であり,既存手法では運転経験蓄積手順を模擬する機構が欠如している。
本稿では,運転経験蓄積手順をモデル化するFeedBack Loop Network (FBLNet)を提案する。
提案モデルでは,既存の手法に対して強い優位性を示し,2つのドライバー注意ベンチマークデータセットの性能向上を実現している。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Differentiable Control Barrier Functions for Vision-based End-to-End
Autonomous Driving [100.57791628642624]
本稿では,視覚に基づくエンドツーエンド自動運転のための安全保証学習フレームワークを提案する。
我々は、勾配降下によりエンドツーエンドに訓練された微分制御バリア関数(dCBF)を備えた学習システムを設計する。
論文 参考訳(メタデータ) (2022-03-04T16:14:33Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - Explainability of vision-based autonomous driving systems: Review and
challenges [33.720369945541805]
説明可能性の必要性は運転で強く、安全クリティカルなアプリケーションです。
この調査は、コンピュータビジョン、ディープラーニング、自動運転、説明可能なAI(X-AI)など、いくつかの研究分野から貢献を集めています。
論文 参考訳(メタデータ) (2021-01-13T19:09:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。