論文の概要: Explainable Artificial Intelligence for Autonomous Driving: A Comprehensive Overview and Field Guide for Future Research Directions
- arxiv url: http://arxiv.org/abs/2112.11561v4
- Date: Sun, 14 Apr 2024 05:48:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-17 00:46:46.605923
- Title: Explainable Artificial Intelligence for Autonomous Driving: A Comprehensive Overview and Field Guide for Future Research Directions
- Title(参考訳): 自動運転のための説明可能な人工知能: 今後の研究方向の総合的概要とフィールドガイド
- Authors: Shahin Atakishiyev, Mohammad Salameh, Hengshuai Yao, Randy Goebel,
- Abstract要約: この研究は、自律運転のための説明可能な人工知能(XAI)アプローチの開発に光を当てている。
まず、XAIをベースとした自動運転における最先端および新興のアプローチの概要について概説する。
次に、説明可能なエンドツーエンド自動運転に必要な要素をすべて考慮した概念的枠組みを提案する。
- 参考スコア(独自算出の注目度): 8.012552653212687
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous driving has achieved significant milestones in research and development over the last two decades. There is increasing interest in the field as the deployment of autonomous vehicles (AVs) promises safer and more ecologically friendly transportation systems. With the rapid progress in computationally powerful artificial intelligence (AI) techniques, AVs can sense their environment with high precision, make safe real-time decisions, and operate reliably without human intervention. However, intelligent decision-making in such vehicles is not generally understandable by humans in the current state of the art, and such deficiency hinders this technology from being socially acceptable. Hence, aside from making safe real-time decisions, AVs must also explain their AI-guided decision-making process in order to be regulatory compliant across many jurisdictions. Our study sheds comprehensive light on the development of explainable artificial intelligence (XAI) approaches for AVs. In particular, we make the following contributions. First, we provide a thorough overview of the state-of-the-art and emerging approaches for XAI-based autonomous driving. We then propose a conceptual framework that considers all the essential elements for explainable end-to-end autonomous driving. Finally, we present XAI-based prospective directions and emerging paradigms for future directions that hold promise for enhancing transparency, trustworthiness, and societal acceptance of AVs.
- Abstract(参考訳): 自動運転は過去20年間、研究と開発において重要なマイルストーンを達成してきた。
自動運転車(AV)の配備がより安全で環境に優しい交通システムを実現するため、この分野への関心が高まっている。
計算力のある人工知能(AI)技術の急速な進歩により、AVは高い精度で環境を感知し、安全なリアルタイム決定を行い、人間の介入なしに確実に運用することができる。
しかし、そのような車両におけるインテリジェントな意思決定は、現在の最先端の人間によって一般的には理解できないため、そのような不足は、この技術が社会的に受け入れられることを妨げる。
したがって、AVは、安全なリアルタイム決定をするためには、多くの管轄区域で規制に準拠するために、AIが指導する意思決定プロセスについても説明する必要がある。
我々の研究は、AVのための説明可能な人工知能(XAI)アプローチの開発について包括的に光を当てている。
特に、以下の貢献をしている。
まず、XAIをベースとした自動運転における最先端および新興のアプローチの概要について概説する。
次に、説明可能なエンドツーエンド自動運転に必要な要素をすべて考慮した概念的枠組みを提案する。
最後に, 透明性, 信頼性, AV の社会的受容の促進を約束する, 今後の方向性に向けて, XAI に基づく先進的な方向性とパラダイムを提示する。
関連論文リスト
- Trustworthy XAI and Application [0.0]
本稿では、XAI、信頼性の高いXAI、信頼性の高いXAIの実用的利用について論じる。
我々は、この状況に関係があると判断した3つの主要なコンポーネント、透明性、説明可能性、信頼性を乗り越えます。
結局のところ、人間とAIシステム間の信頼の確立と維持には信頼性が不可欠である。
論文 参考訳(メタデータ) (2024-10-22T16:10:10Z) - Generative Diffusion-based Contract Design for Efficient AI Twins Migration in Vehicular Embodied AI Networks [55.15079732226397]
Embodied AIは、サイバースペースと物理空間のギャップを埋める、急速に進歩する分野だ。
VEANETでは、組み込まれたAIツインが車載AIアシスタントとして機能し、自律運転をサポートするさまざまなタスクを実行する。
論文 参考訳(メタデータ) (2024-10-02T02:20:42Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Explainable AI for Safe and Trustworthy Autonomous Driving: A Systematic Review [12.38351931894004]
本稿では,安全かつ信頼性の高い自動運転のための説明可能な手法に関する,最初の体系的な文献レビューを紹介する。
我々は、ADにおける安全で信頼性の高いAIに対するXAIの5つの重要な貢献を特定し、それらは解釈可能な設計、解釈可能な代理モデル、解釈可能なモニタリング、補助的な説明、解釈可能な検証である。
我々は、これらのコントリビューションを統合するためにSafeXと呼ばれるモジュラーフレームワークを提案し、同時にAIモデルの安全性を確保しながら、ユーザへの説明提供を可能にした。
論文 参考訳(メタデータ) (2024-02-08T09:08:44Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Towards Safe, Explainable, and Regulated Autonomous Driving [11.043966021881426]
本稿では、自律制御、説明可能なAI(XAI)、規制コンプライアンスを統合するフレームワークを提案する。
フレームワークの目標を達成するのに役立つ、関連するXAIアプローチについて説明します。
論文 参考訳(メタデータ) (2021-11-20T05:06:22Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Explanations in Autonomous Driving: A Survey [7.353589916907923]
我々は、説明可能な自動運転における既存の作業の包括的調査を行う。
我々は、AVの開発、使用、規制に関わる様々な利害関係者を特定し、分類する。
論文 参考訳(メタデータ) (2021-03-09T00:31:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。