論文の概要: People Attribute Purpose to Autonomous Vehicles When Explaining Their Behavior: Insights from Cognitive Science for Explainable AI
- arxiv url: http://arxiv.org/abs/2403.08828v3
- Date: Mon, 03 Feb 2025 21:49:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:53:57.642609
- Title: People Attribute Purpose to Autonomous Vehicles When Explaining Their Behavior: Insights from Cognitive Science for Explainable AI
- Title(参考訳): 人々は行動を説明するときに自動運転車の目的に貢献する:説明可能なAIのための認知科学からの洞察
- Authors: Balint Gyevnar, Stephanie Droop, Tadeg Quillien, Shay B. Cohen, Neil R. Bramley, Christopher G. Lucas, Stefano V. Albrecht,
- Abstract要約: 効果的な人間中心の説明可能な人工知能(XAI)は人間の推論によく似ているとしばしば主張されている。
本稿では, 機械的, 遠隔的, あるいは反現実的を問わず, 人々がどのように説明を行うかを分析するための説明モードの枠組みを提案する。
我々の主な発見は、参加者がテレロジカルな説明を、反ファクト的な説明よりもはるかに良い品質とみなし、テレロジカルな表現が、知覚された品質の最良の予測因子であると認識していることである。
- 参考スコア(独自算出の注目度): 22.138074429937795
- License:
- Abstract: It is often argued that effective human-centered explainable artificial intelligence (XAI) should resemble human reasoning. However, empirical investigations of how concepts from cognitive science can aid the design of XAI are lacking. Based on insights from cognitive science, we propose a framework of explanatory modes to analyze how people frame explanations, whether mechanistic, teleological, or counterfactual. Using the complex safety-critical domain of autonomous driving, we conduct an experiment consisting of two studies on (i) how people explain the behavior of a vehicle in 14 unique scenarios (N1=54) and (ii) how they perceive these explanations (N2=382), curating the novel Human Explanations for Autonomous Driving Decisions (HEADD) dataset. Our main finding is that participants deem teleological explanations significantly better quality than counterfactual ones, with perceived teleology being the best predictor of perceived quality. Based on our results, we argue that explanatory modes are an important axis of analysis when designing and evaluating XAI and highlight the need for a principled and empirically grounded understanding of the cognitive mechanisms of explanation. The HEADD dataset and our code are available at: https://datashare.ed.ac.uk/handle/10283/8930.
- Abstract(参考訳): 効果的な人間中心の説明可能な人工知能(XAI)は人間の推論によく似ているとしばしば主張されている。
しかし、認知科学の概念がXAIの設計にどう役立つかという実証的研究は欠如している。
認知科学の知見に基づいて, 機械的, 遠隔的, あるいは非現実的を問わず, 人々がどのように説明を行うかを分析するための説明的モードの枠組みを提案する。
自律運転の複雑な安全クリティカル領域を用いて、2つの研究からなる実験を行う。
(i)14のシナリオ(N1=54)で車両の挙動を説明する方法
(II)これらの説明をどう受け止めるか(N2=382)、新しいHuman Explanations for Autonomous Driving Decisions(HEADD)データセットをキュレートする。
我々の主な発見は、参加者がテレロジカルな説明を、反ファクト的な説明よりもはるかに良い品質とみなし、テレロジカルな表現が、知覚された品質の最良の予測因子であると認識していることである。
本研究の結果から,XAIを設計・評価する際には,説明モードが重要な分析軸であり,説明の認知メカニズムの原理的・経験的理解の必要性を強調している。
HEADDデータセットと私たちのコードは、https://datashare.ed.ac.uk/handle/10283/8930で利用可能です。
関連論文リスト
- Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Alterfactual Explanations -- The Relevance of Irrelevance for Explaining
AI Systems [0.9542023122304099]
我々は、決定を完全に理解するためには、関連する特徴に関する知識だけでなく、無関係な情報の認識もAIシステムのユーザーのメンタルモデルの作成に大きく貢献すると主張している。
私たちのアプローチは、Alterfactual Explanations(Alterfactual Explanations)と呼ばれ、AIの入力の無関係な特徴が変更された別の現実を示すことに基づいています。
我々は,AIの推論のさまざまな側面を,反事実的説明法よりも理解するために,人工的説明が適していることを示す。
論文 参考訳(メタデータ) (2022-07-19T16:20:37Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Cognitive Perspectives on Context-based Decisions and Explanations [0.0]
本稿では,xaiの文脈的重要性と有用性が,現在の新たな行動指向予測表現構造の波と重なり合うことを示す。
これは説明可能なAIに影響を及ぼし、人間の聴衆にコンピュータの意思決定の説明を提供することが目的です。
論文 参考訳(メタデータ) (2021-01-25T15:49:52Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - How to Answer Why -- Evaluating the Explanations of AI Through Mental
Model Analysis [0.0]
人間中心のAI研究の鍵となる疑問は、ユーザーのメンタルモデルをどのように有効に調査するかである。
実験的な研究手法としてメンタルモデルが適切かどうかを評価する。
本稿では、人間中心の方法で説明可能なAIアプローチを評価するための模範的手法を提案する。
論文 参考訳(メタデータ) (2020-01-11T17:15:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。