論文の概要: Axe the X in XAI: A Plea for Understandable AI
- arxiv url: http://arxiv.org/abs/2403.00315v1
- Date: Fri, 1 Mar 2024 06:28:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 18:08:13.416059
- Title: Axe the X in XAI: A Plea for Understandable AI
- Title(参考訳): XAIのAxe the X: 理解可能なAIのための準備
- Authors: Andr\'es P\'aez
- Abstract要約: 私は、XAI文献で現在使われている説明可能性の概念は、従来の科学的説明の概念とほとんど類似していないと論じる。
XAIの目標と目的を取り巻く混乱を避けるために、"理解可能なAI"というラベルを使用することは、より実りあることでしょう。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In a recent paper, Erasmus et al. (2021) defend the idea that the ambiguity
of the term "explanation" in explainable AI (XAI) can be solved by adopting any
of four different extant accounts of explanation in the philosophy of science:
the Deductive Nomological, Inductive Statistical, Causal Mechanical, and New
Mechanist models. In this chapter, I show that the authors' claim that these
accounts can be applied to deep neural networks as they would to any natural
phenomenon is mistaken. I also provide a more general argument as to why the
notion of explainability as it is currently used in the XAI literature bears
little resemblance to the traditional concept of scientific explanation. It
would be more fruitful to use the label "understandable AI" to avoid the
confusion that surrounds the goal and purposes of XAI. In the second half of
the chapter, I argue for a pragmatic conception of understanding that is better
suited to play the central role attributed to explanation in XAI. Following
Kuorikoski & Ylikoski (2015), the conditions of satisfaction for understanding
an ML system are fleshed out in terms of an agent's success in using the
system, in drawing correct inferences from it.
- Abstract(参考訳): 近年の論文Erasmus et al. (2021)では、説明可能なAI(XAI)における「説明」という用語の曖昧さは、科学哲学における説明の4つの異なる説明のどれでも採用することで解決できるという考えを擁護している。
この章では、これらのアカウントはどんな自然現象にも当てはまるため、ディープニューラルネットワークに適用できるという著者の主張が誤りであることを示す。
また、XAI文献で現在使われている説明可能性の概念が、従来の科学的説明概念とほとんど類似していない理由についても、より一般的な議論をおこなっている。
XAIの目標と目的を取り巻く混乱を避けるために、"理解可能なAI"というラベルを使用することは、より実りあることでしょう。
第2章の後半では、xaiの説明による中心的役割を演じるのに適した理解の実用的概念を論じている。
Kuorikoski & Ylikoski (2015) に続いて、MLシステムを理解するための満足度条件は、エージェントがシステムを使用することで成功し、正しい推論を引き出すという点で具体化されている。
関連論文リスト
- Understanding XAI Through the Philosopher's Lens: A Historical Perspective [5.839350214184222]
論理的帰納的モデルから統計的説明モデルまで,両領域で段階的に進行したことを示す。
同様の概念は、例えば、説明と理解の関係と実用的要因の重要性の両方に独立して現れている。
論文 参考訳(メタデータ) (2024-07-26T14:44:49Z) - Forms of Understanding of XAI-Explanations [2.887772793510463]
本稿では、説明可能な人工知能(XAI)の文脈における理解形態のモデル提示を目的とする。
2種類の理解は説明の可能な結果、すなわち有効性と理解の可能な結果と見なされる。
XAIにおける理解の特別な課題について論じる。
論文 参考訳(メタデータ) (2023-11-15T08:06:51Z) - A psychological theory of explainability [5.715103211247915]
本稿では,XAI の説明の最も一般的な形式である,サリエンシマップから人間がどのように結論を導き出すかの理論を提案する。
私たちの理論は、人間の説明が欠如していることは、AIが自分自身に同様の決定をすることを期待していること、そして彼らが与える説明と比較して説明を解釈していることを示唆している。
論文 参考訳(メタデータ) (2022-05-17T15:52:24Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Making Things Explainable vs Explaining: Requirements and Challenges
under the GDPR [2.578242050187029]
ExplanatorY AI(YAI)はXAI上に構築され、説明可能な情報の収集と整理を目的としている。
本稿では,自動意思決定システム(ADM)について,説明空間上の適切な経路を特定するための説明を生成する問題について述べる。
論文 参考訳(メタデータ) (2021-10-02T08:48:47Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Explainable AI without Interpretable Model [0.0]
AIシステムが、結果の背後にある理由をエンドユーザに説明できることは、これまで以上に重要になっています。
ほとんどの説明可能なAI(XAI)メソッドは、説明を作成するのに使用できる解釈可能なモデルを抽出することに基づいている。
本論文では,文脈的重要性と実用性(CIU)の概念により,ブラックボックスの結果の人間的な説明を直接生成することが可能となる。
論文 参考訳(メタデータ) (2020-09-29T13:29:44Z) - Machine Reasoning Explainability [100.78417922186048]
機械推論(MR: Machine Reasoning)は、抽象的推論を形式化し、エミュレートするための象徴的な手段である。
初期のMRの研究は、明らかに説明可能なAI(XAI)への問い合わせを開始した
本論文はMR説明可能性に関する我々の研究成果を報告する。
論文 参考訳(メタデータ) (2020-09-01T13:45:05Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。