論文の概要: A psychological theory of explainability
- arxiv url: http://arxiv.org/abs/2205.08452v1
- Date: Tue, 17 May 2022 15:52:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-18 16:35:41.707403
- Title: A psychological theory of explainability
- Title(参考訳): 説明可能性の心理学理論
- Authors: Scott Cheng-Hsin Yang, Tomas Folke, Patrick Shafto
- Abstract要約: 本稿では,XAI の説明の最も一般的な形式である,サリエンシマップから人間がどのように結論を導き出すかの理論を提案する。
私たちの理論は、人間の説明が欠如していることは、AIが自分自身に同様の決定をすることを期待していること、そして彼らが与える説明と比較して説明を解釈していることを示唆している。
- 参考スコア(独自算出の注目度): 5.715103211247915
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The goal of explainable Artificial Intelligence (XAI) is to generate
human-interpretable explanations, but there are no computationally precise
theories of how humans interpret AI generated explanations. The lack of theory
means that validation of XAI must be done empirically, on a case-by-case basis,
which prevents systematic theory-building in XAI. We propose a psychological
theory of how humans draw conclusions from saliency maps, the most common form
of XAI explanation, which for the first time allows for precise prediction of
explainee inference conditioned on explanation. Our theory posits that absent
explanation humans expect the AI to make similar decisions to themselves, and
that they interpret an explanation by comparison to the explanations they
themselves would give. Comparison is formalized via Shepard's universal law of
generalization in a similarity space, a classic theory from cognitive science.
A pre-registered user study on AI image classifications with saliency map
explanations demonstrate that our theory quantitatively matches participants'
predictions of the AI.
- Abstract(参考訳): 説明可能な人工知能(XAI)の目標は、人間の解釈可能な説明を生成することであるが、人間がAIを生成する説明をどのように解釈するかについての計算学的に正確な理論はない。
理論の欠如は、XAIの検証を事例ごとに実証的に行う必要があることを意味しており、XAIの体系的な理論構築を妨げている。
本稿では,xai説明の最も一般的な形式であるサリエンシーマップから人間がどのように結論を導き出すかという心理学的理論を提案し,説明条件に基づく説明者の推論の正確な予測を可能にした。
我々の理論は、人間が欠如している説明は、aiが自分自身に同様の決定を下すことを期待し、彼らが与える説明と比較して説明を解釈することを仮定している。
比較は、認知科学の古典理論である類似性空間におけるシェパードの普遍的一般化法則によって定式化される。
サリエンシーマップによるai画像分類を事前に登録したユーザスタディでは,本理論が参加者のai予測と定量的に一致していることが示されている。
関連論文リスト
- Axe the X in XAI: A Plea for Understandable AI [0.0]
私は、XAI文献で現在使われている説明可能性の概念は、従来の科学的説明の概念とほとんど類似していないと論じる。
XAIの目標と目的を取り巻く混乱を避けるために、"理解可能なAI"というラベルを使用することは、より実りあることでしょう。
論文 参考訳(メタデータ) (2024-03-01T06:28:53Z) - A Theoretical Framework for AI Models Explainability with Application in
Biomedicine [3.5742391373143474]
本稿では,文献に見いだせる内容の合成である説明の新たな定義を提案する。
我々は、忠実性(すなわち、モデルの内部動作と意思決定プロセスの真の説明である説明)と可否性(つまり、その説明がどの程度ユーザにとって説得力のあるように見えるか)の性質に、説明を適合させる。
論文 参考訳(メタデータ) (2022-12-29T20:05:26Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Eliminating The Impossible, Whatever Remains Must Be True [46.39428193548396]
より簡潔な「なぜ」形式的な説明をするために背景知識を適用する方法を示す。
また,既存のルール誘導手法を用いて,データセットから背景情報を効率的に抽出する方法を示す。
論文 参考訳(メタデータ) (2022-06-20T03:18:14Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Towards Relatable Explainable AI with the Perceptual Process [5.581885362337179]
我々は、説明は、他の概念、仮説、および関連性により関連していなければならないと論じる。
認知心理学に触発されて、相対論的説明可能なAIのためのXAI知覚処理フレームワークとRexNetモデルを提案する。
論文 参考訳(メタデータ) (2021-12-28T05:48:53Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Explainable AI without Interpretable Model [0.0]
AIシステムが、結果の背後にある理由をエンドユーザに説明できることは、これまで以上に重要になっています。
ほとんどの説明可能なAI(XAI)メソッドは、説明を作成するのに使用できる解釈可能なモデルを抽出することに基づいている。
本論文では,文脈的重要性と実用性(CIU)の概念により,ブラックボックスの結果の人間的な説明を直接生成することが可能となる。
論文 参考訳(メタデータ) (2020-09-29T13:29:44Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。