論文の概要: People Attribute Purpose to Autonomous Vehicles When Explaining Their Behavior: Insights from Cognitive Science for Explainable AI
- arxiv url: http://arxiv.org/abs/2403.08828v3
- Date: Mon, 03 Feb 2025 21:49:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:53:57.642609
- Title: People Attribute Purpose to Autonomous Vehicles When Explaining Their Behavior: Insights from Cognitive Science for Explainable AI
- Title(参考訳): 人々は行動を説明するときに自動運転車の目的に貢献する:説明可能なAIのための認知科学からの洞察
- Authors: Balint Gyevnar, Stephanie Droop, Tadeg Quillien, Shay B. Cohen, Neil R. Bramley, Christopher G. Lucas, Stefano V. Albrecht,
- Abstract要約: 効果的な人間中心の説明可能な人工知能(XAI)は人間の推論によく似ているとしばしば主張されている。
本稿では, 機械的, 遠隔的, あるいは反現実的を問わず, 人々がどのように説明を行うかを分析するための説明モードの枠組みを提案する。
我々の主な発見は、参加者がテレロジカルな説明を、反ファクト的な説明よりもはるかに良い品質とみなし、テレロジカルな表現が、知覚された品質の最良の予測因子であると認識していることである。
- 参考スコア(独自算出の注目度): 22.138074429937795
- License:
- Abstract: It is often argued that effective human-centered explainable artificial intelligence (XAI) should resemble human reasoning. However, empirical investigations of how concepts from cognitive science can aid the design of XAI are lacking. Based on insights from cognitive science, we propose a framework of explanatory modes to analyze how people frame explanations, whether mechanistic, teleological, or counterfactual. Using the complex safety-critical domain of autonomous driving, we conduct an experiment consisting of two studies on (i) how people explain the behavior of a vehicle in 14 unique scenarios (N1=54) and (ii) how they perceive these explanations (N2=382), curating the novel Human Explanations for Autonomous Driving Decisions (HEADD) dataset. Our main finding is that participants deem teleological explanations significantly better quality than counterfactual ones, with perceived teleology being the best predictor of perceived quality. Based on our results, we argue that explanatory modes are an important axis of analysis when designing and evaluating XAI and highlight the need for a principled and empirically grounded understanding of the cognitive mechanisms of explanation. The HEADD dataset and our code are available at: https://datashare.ed.ac.uk/handle/10283/8930.
- Abstract(参考訳): 効果的な人間中心の説明可能な人工知能(XAI)は人間の推論によく似ているとしばしば主張されている。
しかし、認知科学の概念がXAIの設計にどう役立つかという実証的研究は欠如している。
認知科学の知見に基づいて, 機械的, 遠隔的, あるいは非現実的を問わず, 人々がどのように説明を行うかを分析するための説明的モードの枠組みを提案する。
自律運転の複雑な安全クリティカル領域を用いて、2つの研究からなる実験を行う。
(i)14のシナリオ(N1=54)で車両の挙動を説明する方法
(II)これらの説明をどう受け止めるか(N2=382)、新しいHuman Explanations for Autonomous Driving Decisions(HEADD)データセットをキュレートする。
我々の主な発見は、参加者がテレロジカルな説明を、反ファクト的な説明よりもはるかに良い品質とみなし、テレロジカルな表現が、知覚された品質の最良の予測因子であると認識していることである。
本研究の結果から,XAIを設計・評価する際には,説明モードが重要な分析軸であり,説明の認知メカニズムの原理的・経験的理解の必要性を強調している。
HEADDデータセットと私たちのコードは、https://datashare.ed.ac.uk/handle/10283/8930で利用可能です。
関連論文リスト
- Exploring the Causality of End-to-End Autonomous Driving [57.631400236930375]
本稿では,エンドツーエンド自動運転の因果関係を探究し,分析するための包括的アプローチを提案する。
私たちの研究は、エンドツーエンドの自動運転の謎を初めて明らかにし、ブラックボックスを白い箱に変えた。
論文 参考訳(メタデータ) (2024-07-09T04:56:11Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Mindful Explanations: Prevalence and Impact of Mind Attribution in XAI
Research [10.705827568946606]
我々はセマンティック・スカラー・オープン・リサーチ・コーポレーション(S2ORC)による3,533個の説明可能なAI(XAI)研究論文を分析した。
我々は、比喩的(例えば「学習する」または「予測する」)、意識(例えば「考える」)、そして(3)エージェンシーの3つの支配的な精神属性を識別する。
その結果、マインドアトリビュートした説明を受けた参加者は、AIシステムが引き起こした損害を認識できる確率が高いことがわかった。
AI専門家の関与を考慮すると、非貢献者に対するAI責任の格付けが低下する
論文 参考訳(メタデータ) (2023-12-19T12:49:32Z) - Effects of Explanation Specificity on Passengers in Autonomous Driving [9.855051716204002]
本研究では、自然言語説明の特異性が自動運転における乗客に与える影響について検討する。
特定度(抽象的・特異性)の異なる聴覚的自然言語説明法を作成した。
その結果, 抽象的・特異的な説明は, 乗客の安心感や不安感に類似した効果が認められた。
論文 参考訳(メタデータ) (2023-07-02T18:40:05Z) - Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - EgoTaskQA: Understanding Human Tasks in Egocentric Videos [89.9573084127155]
EgoTaskQAベンチマークは、現実世界のエゴセントリックなビデオに対する質問回答を通じて、タスク理解の重要な次元を提供する。
我々は,(1)行動依存と効果,(2)意図と目標,(3)エージェントの他者に対する信念の理解を念頭に設計する。
我々は、我々のベンチマークで最先端のビデオ推論モデルを評価し、複雑なゴール指向のエゴセントリックなビデオを理解する上で、人間の間に大きなギャップがあることを示します。
論文 参考訳(メタデータ) (2022-10-08T05:49:05Z) - Alterfactual Explanations -- The Relevance of Irrelevance for Explaining
AI Systems [0.9542023122304099]
我々は、決定を完全に理解するためには、関連する特徴に関する知識だけでなく、無関係な情報の認識もAIシステムのユーザーのメンタルモデルの作成に大きく貢献すると主張している。
私たちのアプローチは、Alterfactual Explanations(Alterfactual Explanations)と呼ばれ、AIの入力の無関係な特徴が変更された別の現実を示すことに基づいています。
我々は,AIの推論のさまざまな側面を,反事実的説明法よりも理解するために,人工的説明が適していることを示す。
論文 参考訳(メタデータ) (2022-07-19T16:20:37Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - To Explain or Not to Explain: A Study on the Necessity of Explanations
for Autonomous Vehicles [26.095533634997786]
1103ビデオクリップの必要性を1対1で説明する自動運転説明データセットを提案する。
我々の研究は、ドライバーのタイプと運転シナリオが説明が必要かどうかを判断することを示した。
特に、ニアクラッシュなイベントの必要性には同意する傾向にあるが、通常の運転状況や異常運転状況については異なる意見を持っている。
論文 参考訳(メタデータ) (2020-06-21T00:38:24Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。