論文の概要: Advancing Explainable Autonomous Vehicle Systems: A Comprehensive Review and Research Roadmap
- arxiv url: http://arxiv.org/abs/2404.00019v1
- Date: Tue, 19 Mar 2024 11:43:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-07 23:17:33.307783
- Title: Advancing Explainable Autonomous Vehicle Systems: A Comprehensive Review and Research Roadmap
- Title(参考訳): 説明可能な自動運転車システムの進化 : 総合的なレビューと研究ロードマップ
- Authors: Sule Tekkesinoglu, Azra Habibovic, Lars Kunze,
- Abstract要約: 本研究は、説明生成とプレゼンテーションに関連する複雑さについて論じるものである。
私たちのロードマップは、責任ある研究とイノベーションの原則によって支えられています。
これらの研究の方向性を探ることで、説明可能なAVの開発と展開の指針となる。
- 参考スコア(独自算出の注目度): 4.2330023661329355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given the uncertainty surrounding how existing explainability methods for autonomous vehicles (AVs) meet the diverse needs of stakeholders, a thorough investigation is imperative to determine the contexts requiring explanations and suitable interaction strategies. A comprehensive review becomes crucial to assess the alignment of current approaches with the varied interests and expectations within the AV ecosystem. This study presents a review to discuss the complexities associated with explanation generation and presentation to facilitate the development of more effective and inclusive explainable AV systems. Our investigation led to categorising existing literature into three primary topics: explanatory tasks, explanatory information, and explanatory information communication. Drawing upon our insights, we have proposed a comprehensive roadmap for future research centred on (i) knowing the interlocutor, (ii) generating timely explanations, (ii) communicating human-friendly explanations, and (iv) continuous learning. Our roadmap is underpinned by principles of responsible research and innovation, emphasising the significance of diverse explanation requirements. To effectively tackle the challenges associated with implementing explainable AV systems, we have delineated various research directions, including the development of privacy-preserving data integration, ethical frameworks, real-time analytics, human-centric interaction design, and enhanced cross-disciplinary collaborations. By exploring these research directions, the study aims to guide the development and deployment of explainable AVs, informed by a holistic understanding of user needs, technological advancements, regulatory compliance, and ethical considerations, thereby ensuring safer and more trustworthy autonomous driving experiences.
- Abstract(参考訳): 自律走行車(AV)の既存の説明可能性手法がステークホルダーのニーズにどのように適合しているかという不確実性を考えると、説明を必要とする状況や適切なインタラクション戦略を決定するために徹底的な調査が不可欠である。
AVエコシステムにおける様々な関心や期待と現在のアプローチの整合性を評価するためには、包括的なレビューが不可欠である。
本稿では,より効果的かつ包括的説明可能なAVシステムの開発を促進するために,説明生成とプレゼンテーションに関連する複雑さについて論じる。
本研究は,既存の文献を説明課題,説明情報,説明情報通信の3つの主要なトピックに分類することにつながった。
我々の洞察に基づいて、我々は今後の研究の総合的なロードマップを提案してきた。
(i)インターロケータを知ること。
(二)タイムリーな説明を作成すること。
(二)人間に優しい説明、(四)継続的学習。
私たちのロードマップは、責任ある研究とイノベーションの原則に基づき、多様な説明要件の重要性を強調しています。
説明可能なAVシステムの実装に関わる課題に効果的に取り組むため,プライバシー保護データ統合,倫理的枠組み,リアルタイム分析,人間中心のインタラクション設計,学際的コラボレーションの強化など,さまざまな研究方針を整理した。
これらの研究の方向性を探求することにより、ユーザニーズ、技術進歩、規制順守、倫理的配慮の全体的理解から情報を得て、説明可能なAVの開発と展開をガイドし、より安全で信頼性の高い自動運転体験を確保することを目的とする。
関連論文リスト
- Explainable Interface for Human-Autonomy Teaming: A Survey [12.26178592621411]
本稿では,HATシステムにおける説明可能なインタフェース(EI)の未探索領域について考察する。
我々は,XAI強化HATシステムにおけるEIの設計,開発,評価について検討する。
私たちは、HATのユニークな課題に対処する、EIのための新しいフレームワークにコントリビュートします。
論文 参考訳(メタデータ) (2024-05-04T06:35:38Z) - Opening the Black-Box: A Systematic Review on Explainable AI in Remote
Sensing [52.110707276938]
ブラックボックス機械学習アプローチは、リモートセンシングにおける知識抽出のための主要なモデリングパラダイムとなっている。
我々は、リモートセンシングにおいて、説明可能なAIがどのように使われているかを示す重要なトレンドを特定するために、体系的なレビューを行う。
私たちは、新しい説明可能なAIアプローチと、特定のリモートセンシング課題に対処する新たな方向性に光を当てました。
論文 参考訳(メタデータ) (2024-02-21T13:19:58Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - A Systematic Review on Fostering Appropriate Trust in Human-AI
Interaction [19.137907393497848]
人工知能の適切な信頼(AI)システムは、研究者と実践者の両方にとって、急速に重要な領域になってきた。
信頼度スコア、説明、信頼度基準、不確実性通信など、様々なアプローチがそれを達成するために使われてきた。
本稿では、適切な信頼を構築するための現在の実践、それを測定するためのさまざまな方法、使用するタスクの種類、それに関連する潜在的な課題を特定するための体系的なレビューを示す。
論文 参考訳(メタデータ) (2023-11-08T12:19:58Z) - Social Interaction-Aware Dynamical Models and Decision Making for
Autonomous Vehicles [20.123965317836106]
IAAD(Interaction-Aware Autonomous Driving)は、急速に成長する研究分野である。
それは、人間の道路利用者と安全かつ効率的に対話できる自動運転車の開発に焦点を当てている。
これは、自動運転車が人間の道路利用者の行動を理解し予測できることを要求するため、困難な作業である。
論文 参考訳(メタデータ) (2023-10-29T03:43:50Z) - A Survey on Interpretable Cross-modal Reasoning [64.37362731950843]
マルチメディア分析から医療診断に至るまで、クロスモーダル推論(CMR)が重要な分野として浮上している。
この調査は、解釈可能なクロスモーダル推論(I-CMR)の領域を掘り下げる
本調査では,I-CMRの3段階分類法について概説する。
論文 参考訳(メタデータ) (2023-09-05T05:06:48Z) - Re-mine, Learn and Reason: Exploring the Cross-modal Semantic
Correlations for Language-guided HOI detection [57.13665112065285]
ヒューマンオブジェクトインタラクション(HOI)検出は、コンピュータビジョンの課題である。
本稿では,構造化テキスト知識を組み込んだHOI検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-25T14:20:52Z) - A Study of Situational Reasoning for Traffic Understanding [63.45021731775964]
トラフィック領域における状況推論のための3つの新しいテキストベースのタスクを考案する。
先行作業における言語推論タスクにまたがる一般化能力を示す知識強化手法を4つ採用する。
本稿では,データ分割におけるモデル性能の詳細な解析を行い,モデル予測を分類的に検討する。
論文 参考訳(メタデータ) (2023-06-05T01:01:12Z) - Interactive Natural Language Processing [67.87925315773924]
対話型自然言語処理(iNLP)は,NLP分野における新しいパラダイムとして登場した。
本稿では,iNLPの概念の統一的定義と枠組みを提案することから,iNLPに関する包括的調査を行う。
論文 参考訳(メタデータ) (2023-05-22T17:18:29Z) - What Do We Want From Explainable Artificial Intelligence (XAI)? -- A
Stakeholder Perspective on XAI and a Conceptual Model Guiding
Interdisciplinary XAI Research [0.8707090176854576]
説明可能性アプローチの主な目的は、人工システムに関する特定の関心、目標、期待、ニーズ、および要求を満たすことです。
ステークホルダーのデシデラタを満たすという目標を達成するための説明可能性アプローチがどうあるべきかは、しばしば不明である。
論文 参考訳(メタデータ) (2021-02-15T19:54:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。