論文の概要: Diagnosing AI Explanation Methods with Folk Concepts of Behavior
- arxiv url: http://arxiv.org/abs/2201.11239v1
- Date: Thu, 27 Jan 2022 00:19:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-28 14:40:27.524009
- Title: Diagnosing AI Explanation Methods with Folk Concepts of Behavior
- Title(参考訳): 行動概念を用いたAI説明手法の診断
- Authors: Alon Jacovi, Jasmijn Bastings, Sebastian Gehrmann, Yoav Goldberg,
Katja Filippova
- Abstract要約: 我々は、人間が行動を理解するために使用する民間概念について、心文学の理論を活用することで、答えを提供する。
我々は,人間の説明者による社会的帰属の枠組みを構築し,説明機能を記述する。
我々は,多くのXAI機構を民生的な行動概念にマッピングできることを実証した。
- 参考スコア(独自算出の注目度): 51.78122549530914
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When explaining AI behavior to humans, how is the communicated information
being comprehended by the human explainee, and does it match what the
explanation attempted to communicate? When can we say that an explanation is
explaining something? We aim to provide an answer by leveraging theory of mind
literature about the folk concepts that humans use to understand behavior. We
establish a framework of social attribution by the human explainee, which
describes the function of explanations: the concrete information that humans
comprehend from them. Specifically, effective explanations should be coherent
(communicate information which generalizes to other contrast cases), complete
(communicating an explicit contrast case, objective causes, and subjective
causes), and interactive (surfacing and resolving contradictions to the
generalization property through iterations). We demonstrate that many XAI
mechanisms can be mapped to folk concepts of behavior. This allows us to
uncover their modes of failure that prevent current methods from explaining
effectively, and what is necessary to enable coherent explanations.
- Abstract(参考訳): 人間にAIの振る舞いを説明するとき、コミュニケーションされた情報は人間の説明者にどのように解釈されるのか。
説明が何かを説明するといつ言えるだろうか。
我々は,人間が行動を理解するために使用する民意概念について,心文学の理論を活用することで,回答を提供することを目指している。
我々は、人間の説明者による社会的帰属の枠組みを確立し、人間の理解する具体的な情報である説明の機能を記述する。
具体的には、効果的な説明はコヒーレント(他のコントラストケースに一般化するコミュニケーション情報)、完全(明示的なコントラストケース、客観的原因、主観的原因)、インタラクティブ(反復を通して一般化特性に対する矛盾を表面化し解決する)である。
我々は,多くのXAI機構を民生的な行動概念にマッピングできることを実証した。
これにより、現在のメソッドが効果的に説明できないような障害モードと、一貫性のある説明を可能にするために必要なものを明らかにすることができます。
関連論文リスト
- Explaining Explaining [0.882727051273924]
高度なAIシステムに自信を持つ人々にとって、説明は鍵となる。
マシンラーニングベースのシステムは、通常はブラックボックスであるため、説明できない。
認知エージェント開発におけるハイブリッドアプローチについて述べる。
論文 参考訳(メタデータ) (2024-09-26T16:55:44Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Alterfactual Explanations -- The Relevance of Irrelevance for Explaining
AI Systems [0.9542023122304099]
我々は、決定を完全に理解するためには、関連する特徴に関する知識だけでなく、無関係な情報の認識もAIシステムのユーザーのメンタルモデルの作成に大きく貢献すると主張している。
私たちのアプローチは、Alterfactual Explanations(Alterfactual Explanations)と呼ばれ、AIの入力の無関係な特徴が変更された別の現実を示すことに基づいています。
我々は,AIの推論のさまざまな側面を,反事実的説明法よりも理解するために,人工的説明が適していることを示す。
論文 参考訳(メタデータ) (2022-07-19T16:20:37Z) - A psychological theory of explainability [5.715103211247915]
本稿では,XAI の説明の最も一般的な形式である,サリエンシマップから人間がどのように結論を導き出すかの理論を提案する。
私たちの理論は、人間の説明が欠如していることは、AIが自分自身に同様の決定をすることを期待していること、そして彼らが与える説明と比較して説明を解釈していることを示唆している。
論文 参考訳(メタデータ) (2022-05-17T15:52:24Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Mitigating belief projection in explainable artificial intelligence via
Bayesian Teaching [4.864819846886143]
説明可能なAI(XAI)は人間の理解を改善しようとするが、人々がよく知らないエージェントをどう考えるかを説明することは滅多にない。
ベイジアン・インストラクション(ベイジアン・インストラクション)を通したヒューマン・インストラクタのモデル化について提案する。
論文 参考訳(メタデータ) (2021-02-07T21:23:24Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。