論文の概要: Explainable Artificial Intelligence for Autonomous Driving: A
Comprehensive Overview and Field Guide for Future Research Directions
- arxiv url: http://arxiv.org/abs/2112.11561v1
- Date: Tue, 21 Dec 2021 22:51:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-24 00:08:41.814813
- Title: Explainable Artificial Intelligence for Autonomous Driving: A
Comprehensive Overview and Field Guide for Future Research Directions
- Title(参考訳): 自動運転のための説明可能な人工知能: 今後の研究方向性の概観とフィールドガイド
- Authors: Shahin Atakishiyev, Mohammad Salameh, Hengshuai Yao, Randy Goebel
- Abstract要約: この研究は、自動運転車のための説明可能な人工知能(XAI)アプローチの開発に包括的な光を当てている。
まず、最先端の自動運転車産業における説明について、現状のギャップを概観する。
第2に,本分野における説明書・説明書の分類について述べる。
第3に,エンド・ツー・エンドの自動運転システムのアーキテクチャの枠組みを提案する。
- 参考スコア(独自算出の注目度): 11.259749697686697
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous driving has achieved a significant milestone in research and
development over the last decade. There is increasing interest in the field as
the deployment of self-operating vehicles on roads promises safer and more
ecologically friendly transportation systems. With the rise of computationally
powerful artificial intelligence (AI) techniques, autonomous vehicles can sense
their environment with high precision, make safe real-time decisions, and
operate more reliably without human interventions. However, intelligent
decision-making in autonomous cars is not generally understandable by humans in
the current state of the art, and such deficiency hinders this technology from
being socially acceptable. Hence, aside from making safe real-time decisions,
the AI systems of autonomous vehicles also need to explain how these decisions
are constructed in order to be regulatory compliant across many jurisdictions.
Our study sheds a comprehensive light on developing explainable artificial
intelligence (XAI) approaches for autonomous vehicles. In particular, we make
the following contributions. First, we provide a thorough overview of the
present gaps with respect to explanations in the state-of-the-art autonomous
vehicle industry. We then show the taxonomy of explanations and explanation
receivers in this field. Thirdly, we propose a framework for an architecture of
end-to-end autonomous driving systems and justify the role of XAI in both
debugging and regulating such systems. Finally, as future research directions,
we provide a field guide on XAI approaches for autonomous driving that can
improve operational safety and transparency towards achieving public approval
by regulators, manufacturers, and all engaged stakeholders.
- Abstract(参考訳): 自動運転は過去10年間、研究と開発において重要なマイルストーンを達成した。
自動運転車両の道路への配備はより安全でより環境に優しい輸送システムを約束するので、この分野への関心が高まっている。
計算力のある人工知能(AI)技術の台頭により、自動運転車は高い精度で環境を感知し、安全なリアルタイム決定を行い、人間の介入なしにより確実に運用することができる。
しかし、自動運転車のインテリジェントな意思決定は、現在の技術では人間には理解できないため、この技術が社会的に受け入れられることを妨げる。
したがって、自動運転車のAIシステムは、安全なリアルタイム決定を行う以外に、多くの管轄区域で規制に準拠するために、これらの決定がどのように構築されているかを説明する必要がある。
我々の研究は、自動運転車のための説明可能な人工知能(XAI)アプローチの開発に包括的な光を当てている。
特に、以下の貢献をしている。
まず,最先端の自動運転車産業における解説に関して,現状のギャップを概観する。
次に、この分野における説明の分類と説明のレシーバーを示す。
第3に、エンド・ツー・エンドの自動運転システムのアーキテクチャの枠組みを提案し、そのようなシステムのデバッグと制御におけるXAIの役割を正当化する。
最後に、今後の研究の方向性として、規制当局、製造業者、および全ての利害関係者による公的承認を達成するために、運転安全と透明性を向上させるためのXAIアプローチのフィールドガイドを提供する。
関連論文リスト
- Trustworthy XAI and Application [0.0]
本稿では、XAI、信頼性の高いXAI、信頼性の高いXAIの実用的利用について論じる。
我々は、この状況に関係があると判断した3つの主要なコンポーネント、透明性、説明可能性、信頼性を乗り越えます。
結局のところ、人間とAIシステム間の信頼の確立と維持には信頼性が不可欠である。
論文 参考訳(メタデータ) (2024-10-22T16:10:10Z) - Generative Diffusion-based Contract Design for Efficient AI Twins Migration in Vehicular Embodied AI Networks [55.15079732226397]
Embodied AIは、サイバースペースと物理空間のギャップを埋める、急速に進歩する分野だ。
VEANETでは、組み込まれたAIツインが車載AIアシスタントとして機能し、自律運転をサポートするさまざまなタスクを実行する。
論文 参考訳(メタデータ) (2024-10-02T02:20:42Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Explainable AI for Safe and Trustworthy Autonomous Driving: A Systematic Review [12.38351931894004]
本稿では,安全かつ信頼性の高い自動運転のための説明可能な手法に関する,最初の体系的な文献レビューを紹介する。
我々は、ADにおける安全で信頼性の高いAIに対するXAIの5つの重要な貢献を特定し、それらは解釈可能な設計、解釈可能な代理モデル、解釈可能なモニタリング、補助的な説明、解釈可能な検証である。
我々は、これらのコントリビューションを統合するためにSafeXと呼ばれるモジュラーフレームワークを提案し、同時にAIモデルの安全性を確保しながら、ユーザへの説明提供を可能にした。
論文 参考訳(メタデータ) (2024-02-08T09:08:44Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Towards Safe, Explainable, and Regulated Autonomous Driving [11.043966021881426]
本稿では、自律制御、説明可能なAI(XAI)、規制コンプライアンスを統合するフレームワークを提案する。
フレームワークの目標を達成するのに役立つ、関連するXAIアプローチについて説明します。
論文 参考訳(メタデータ) (2021-11-20T05:06:22Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Explanations in Autonomous Driving: A Survey [7.353589916907923]
我々は、説明可能な自動運転における既存の作業の包括的調査を行う。
我々は、AVの開発、使用、規制に関わる様々な利害関係者を特定し、分類する。
論文 参考訳(メタデータ) (2021-03-09T00:31:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。