論文の概要: Understanding XAI Through the Philosopher's Lens: A Historical Perspective
- arxiv url: http://arxiv.org/abs/2407.18782v1
- Date: Fri, 26 Jul 2024 14:44:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-29 13:09:10.258356
- Title: Understanding XAI Through the Philosopher's Lens: A Historical Perspective
- Title(参考訳): 哲学者のレンズを通してXAIを理解する:歴史的展望
- Authors: Martina Mattioli, Antonio Emanuele Cinà, Marcello Pelillo,
- Abstract要約: 論理的帰納的モデルから統計的説明モデルまで,両領域で段階的に進行したことを示す。
同様の概念は、例えば、説明と理解の関係と実用的要因の重要性の両方に独立して現れている。
- 参考スコア(独自算出の注目度): 5.839350214184222
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite explainable AI (XAI) has recently become a hot topic and several different approaches have been developed, there is still a widespread belief that it lacks a convincing unifying foundation. On the other hand, over the past centuries, the very concept of explanation has been the subject of extensive philosophical analysis in an attempt to address the fundamental question of "why" in the context of scientific law. However, this discussion has rarely been connected with XAI. This paper tries to fill in this gap and aims to explore the concept of explanation in AI through an epistemological lens. By comparing the historical development of both the philosophy of science and AI, an intriguing picture emerges. Specifically, we show that a gradual progression has independently occurred in both domains from logical-deductive to statistical models of explanation, thereby experiencing in both cases a paradigm shift from deterministic to nondeterministic and probabilistic causality. Interestingly, we also notice that similar concepts have independently emerged in both realms such as, for example, the relation between explanation and understanding and the importance of pragmatic factors. Our study aims to be the first step towards understanding the philosophical underpinnings of the notion of explanation in AI, and we hope that our findings will shed some fresh light on the elusive nature of XAI.
- Abstract(参考訳): 説明可能なAI(XAI)は最近ホットな話題になり、いくつかの異なるアプローチが開発されているが、説得力のある統一基盤が欠如していると広く信じられている。
一方、過去何世紀にもわたって、科学法の文脈における「なぜ」という根本的な問題に対処するために、説明という概念は広範な哲学的分析の対象となった。
しかし、この議論がXAIと結びつくことは滅多にない。
本稿では、このギャップを埋めようと試み、認識レンズを通してAIにおける説明概念を探求することを目的とする。
科学とAIの哲学の歴史的発展を比較することで、興味深い絵が浮かび上がる。
具体的には、論理的推論モデルから統計的説明モデルまで、両方の領域で段階的な進行が独立に発生していることを示し、いずれの場合も、決定論的から非決定論的・確率論的因果性へのパラダイムシフトを経験する。
興味深いことに、同様の概念が、例えば、説明と理解の関係と実用的要因の重要性など、両方の領域に独立して現れていることにも気付きました。
我々の研究は、AIにおける説明概念の哲学的基盤を理解するための第一歩であり、私たちの発見がXAIの解明的な性質に新たな光を放つことを願っている。
関連論文リスト
- Interpretability Needs a New Paradigm [49.134097841837715]
解釈可能性(英: Interpretability)とは、人間に理解可能な言葉でモデルを説明する研究である。
この議論の核心は、それぞれのパラダイムがその説明が忠実である、すなわちモデルの振舞いに忠実であることをいかに保証するかである。
この論文の立場は、信仰を警戒しながら新しいパラダイムを考えるべきだというものである。
論文 参考訳(メタデータ) (2024-05-08T19:31:06Z) - Axe the X in XAI: A Plea for Understandable AI [0.0]
私は、XAI文献で現在使われている説明可能性の概念は、従来の科学的説明の概念とほとんど類似していないと論じる。
XAIの目標と目的を取り巻く混乱を避けるために、"理解可能なAI"というラベルを使用することは、より実りあることでしょう。
論文 参考訳(メタデータ) (2024-03-01T06:28:53Z) - Forms of Understanding of XAI-Explanations [2.887772793510463]
本稿では、説明可能な人工知能(XAI)の文脈における理解形態のモデル提示を目的とする。
2種類の理解は説明の可能な結果、すなわち有効性と理解の可能な結果と見なされる。
XAIにおける理解の特別な課題について論じる。
論文 参考訳(メタデータ) (2023-11-15T08:06:51Z) - The role of causality in explainable artificial intelligence [1.049712834719005]
因果性(Causality)とeXplainable Artificial Intelligence(XAI)は、コンピュータ科学の別分野として開発された。
文献を調査し,どの程度因果関係とXAIが絡み合っているかを理解する。
論文 参考訳(メタデータ) (2023-09-18T16:05:07Z) - Adding Why to What? Analyses of an Everyday Explanation [0.0]
この理論を分析的枠組みとして20のゲーム説明について検討した。
説明者はまずゲームの物理的側面(アーキテクチャ)に焦点を合わせ、その後は関連性(Relevance)の側面にのみ焦点を当てた。
両者の対応のシフトは、説明目標、出現する誤解、説明者の知識要求によって正当化された。
論文 参考訳(メタデータ) (2023-08-08T11:17:22Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Argumentative XAI: A Survey [15.294433619347082]
計算論の分野からの手法を用いて構築したXAI手法の概要を概説する。
私たちは、さまざまなタイプの説明(本質的およびポストホック的)、議論に基づく説明がデプロイされるさまざまなモデル、デリバリの異なる形式、それらが使用する議論フレームワークに焦点を当てます。
論文 参考訳(メタデータ) (2021-05-24T13:32:59Z) - Machine Reasoning Explainability [100.78417922186048]
機械推論(MR: Machine Reasoning)は、抽象的推論を形式化し、エミュレートするための象徴的な手段である。
初期のMRの研究は、明らかに説明可能なAI(XAI)への問い合わせを開始した
本論文はMR説明可能性に関する我々の研究成果を報告する。
論文 参考訳(メタデータ) (2020-09-01T13:45:05Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。