論文の概要: People Attribute Purpose to Autonomous Vehicles When Explaining Their Behavior
- arxiv url: http://arxiv.org/abs/2403.08828v1
- Date: Mon, 11 Mar 2024 11:48:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-16 00:51:27.951846
- Title: People Attribute Purpose to Autonomous Vehicles When Explaining Their Behavior
- Title(参考訳): 人々は行動を説明するとき、自動運転車の目的に貢献する
- Authors: Balint Gyevnar, Stephanie Droop, Tadeg Quillien,
- Abstract要約: 我々は、特にテレロジーに関して、認知的説明科学から関連する文献をレビューする。
自動運転車の動作に関する説明を人々がどのように生成するかに関する実証データを報告する。
我々は,Human Explanations for Autonomous Driving Decisions (HEADD)と呼ばれる,注釈付きビデオ状況のデータセットを公開している。
- 参考スコア(独自算出の注目度): 0.4213495442786701
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A hallmark of a good XAI system is explanations that users can understand and act on. In many cases, this requires a system to offer causal or counterfactual explanations that are intelligible. Cognitive science can help us understand what kinds of explanations users might expect, and in which format to frame these explanations. We briefly review relevant literature from the cognitive science of explanation, particularly as it concerns teleology, the tendency to explain a decision in terms of the purpose it was meant to achieve. We then report empirical data on how people generate explanations for the behavior of autonomous vehicles, and how they evaluate these explanations. In a first survey, participants (n=54) were shown videos of a road scene and asked to generate either mechanistic, counterfactual, or teleological verbal explanations for a vehicle's actions. In the second survey, a different set of participants (n=356) rated these explanations along various metrics including quality, trustworthiness, and how much each explanatory mode was emphasized in the explanation. Participants deemed mechanistic and teleological explanations as significantly higher quality than counterfactual explanations. In addition, perceived teleology was the best predictor of perceived quality and trustworthiness. Neither perceived teleology nor quality ratings were affected by whether the car whose actions were being explained was an autonomous vehicle or was being driven by a person. The results show people use and value teleological concepts to evaluate information about both other people and autonomous vehicles, indicating they find the 'intentional stance' a convenient abstraction. We make our dataset of annotated video situations with explanations, called Human Explanations for Autonomous Driving Decisions (HEADD), publicly available, which we hope will prompt further research.
- Abstract(参考訳): 優れたXAIシステムの目玉は、ユーザが理解し行動できる説明である。
多くの場合、これは理解不能な因果的または反事実的説明を提供するシステムを必要とする。
認知科学は、ユーザーがどのような説明を期待するか、どのフォーマットでこれらの説明をフレーム化するかを理解するのに役立ちます。
本稿では,特にテレロジーに関する認知科学から,その目的の観点から意思決定を説明する傾向について,関連文献を簡潔にレビューする。
次に、自動運転車の動作に関する説明を生成する方法と、これらの説明を評価する方法について、実証データを報告する。
最初の調査では、参加者(n=54)が道路シーンのビデオを見せられ、車両の行動に関する機械的、反事実的、遠隔的言葉の説明を生成するよう依頼された。
第2の調査では、異なる参加者(n=356)がこれらの説明を、品質、信頼性、説明モードがどの程度強調されたかなど、様々な指標に沿って評価した。
参加者は、機械的、遠隔的説明は反事実的説明よりもはるかに高い品質であるとみなした。
さらに、テレロジーは、品質と信頼性を知覚する最良の予測者であった。
テレロジーや品質評価は、説明されている車両が自動運転車であるか、または人が運転しているかによっても影響を受けなかった。
その結果,他者と自律走行車の両方の情報をテレロジカルな概念を用いて評価し,その「意図的スタンス」が便利な抽象化であることが示唆された。
我々は、注釈付きビデオ状況のデータセットを、Human Explanations for Autonomous Driving Decisions (HEADD)と呼ばれる説明とともに公開し、さらなる研究を期待する。
関連論文リスト
- Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Alterfactual Explanations -- The Relevance of Irrelevance for Explaining
AI Systems [0.9542023122304099]
我々は、決定を完全に理解するためには、関連する特徴に関する知識だけでなく、無関係な情報の認識もAIシステムのユーザーのメンタルモデルの作成に大きく貢献すると主張している。
私たちのアプローチは、Alterfactual Explanations(Alterfactual Explanations)と呼ばれ、AIの入力の無関係な特徴が変更された別の現実を示すことに基づいています。
我々は,AIの推論のさまざまな側面を,反事実的説明法よりも理解するために,人工的説明が適していることを示す。
論文 参考訳(メタデータ) (2022-07-19T16:20:37Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Cognitive Perspectives on Context-based Decisions and Explanations [0.0]
本稿では,xaiの文脈的重要性と有用性が,現在の新たな行動指向予測表現構造の波と重なり合うことを示す。
これは説明可能なAIに影響を及ぼし、人間の聴衆にコンピュータの意思決定の説明を提供することが目的です。
論文 参考訳(メタデータ) (2021-01-25T15:49:52Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - How to Answer Why -- Evaluating the Explanations of AI Through Mental
Model Analysis [0.0]
人間中心のAI研究の鍵となる疑問は、ユーザーのメンタルモデルをどのように有効に調査するかである。
実験的な研究手法としてメンタルモデルが適切かどうかを評価する。
本稿では、人間中心の方法で説明可能なAIアプローチを評価するための模範的手法を提案する。
論文 参考訳(メタデータ) (2020-01-11T17:15:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。