論文の概要: Explaining Any ML Model? -- On Goals and Capabilities of XAI
- arxiv url: http://arxiv.org/abs/2206.13888v1
- Date: Tue, 28 Jun 2022 11:09:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-02 11:53:44.993649
- Title: Explaining Any ML Model? -- On Goals and Capabilities of XAI
- Title(参考訳): mlモデルを説明する?
--XAIの目標と能力について
- Authors: Moritz Renftle, Holger Trittenbach, Michael Poznic, Reinhard Heil
- Abstract要約: 我々は、XAIアルゴリズムの目標と能力はよく理解されていないと論じる。
ユーザは多様な質問をすることができるが、その中の1つだけが現在のXAIアルゴリズムで答えられる。
- 参考スコア(独自算出の注目度): 2.236663830879273
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: An increasing ubiquity of machine learning (ML) motivates research on
algorithms to explain ML models and their predictions -- so-called eXplainable
Artificial Intelligence (XAI). Despite many survey papers and discussions, the
goals and capabilities of XAI algorithms are far from being well understood. We
argue that this is because of a problematic reasoning scheme in XAI literature:
XAI algorithms are said to complement ML models with desired properties, such
as "interpretability", or "explainability". These properties are in turn
assumed to contribute to a goal, like "trust" in an ML system. But most
properties lack precise definitions and their relationship to such goals is far
from obvious. The result is a reasoning scheme that obfuscates research results
and leaves an important question unanswered: What can one expect from XAI
algorithms? In this article, we clarify the goals and capabilities of XAI
algorithms from a concrete perspective: that of their users. Explaining ML
models is only necessary if users have questions about them. We show that users
can ask diverse questions, but that only one of them can be answered by current
XAI algorithms. Answering this core question can be trivial, difficult or even
impossible, depending on the ML application. Based on these insights, we
outline which capabilities policymakers, researchers and society can reasonably
expect from XAI algorithms.
- Abstract(参考訳): 機械学習(ML)の普及は、機械学習モデルとその予測(いわゆるeXplainable Artificial Intelligence(XAI))を説明するアルゴリズムの研究を動機付けている。
多くの調査論文や議論にもかかわらず、XAIアルゴリズムの目標と能力はよく理解されていない。
XAIアルゴリズムは「解釈可能性」や「説明可能性」など、望ましい特性を持つMLモデルを補完すると言われている。
これらの特性は、MLシステムの"信頼"のようなゴールに寄与すると仮定される。
しかし、ほとんどの特性は正確な定義がなく、それらの目標との関係は明確ではない。
その結果、研究結果を曖昧にし、xaiアルゴリズムに何が期待できるのかという重要な疑問が残る推論スキームが生まれました。
本稿では,具体的な視点から,XAIアルゴリズムの目標と能力を明らかにする。
MLモデルの説明は、ユーザが疑問を持つ場合にのみ必要である。
ユーザは多様な質問をすることができるが、その中の1つだけが現在のXAIアルゴリズムで答えられる。
この中核的な疑問に答えることは、MLアプリケーションによっては、簡単、困難、あるいは不可能である。
これらの知見に基づき、政策立案者、研究者、社会がXAIアルゴリズムから合理的に期待できる能力について概説する。
関連論文リスト
- Explainable AI needs formal notions of explanation correctness [2.1309989863595677]
医学のような重要な分野における機械学習はリスクをもたらし、規制を必要とする。
1つの要件は、リスクの高いアプリケーションにおけるMLシステムの決定は、人間に理解可能なものであるべきです。
現在の形式では、XAIはMLの品質管理に不適であり、それ自体は精査が必要である。
論文 参考訳(メタデータ) (2024-09-22T20:47:04Z) - Dataset | Mindset = Explainable AI | Interpretable AI [36.001670039529586]
機械学習(ML)の出力を支える理由を説明するために、与えられたデータセットにさまざまなXAIツールを適用すると、"説明可能な"人工知能(XAI)と"解釈可能なAI(IAI)"が相反する。
我々は、XAIは、IAIのサブセットであると主張する。IAIの概念はデータセットの範囲を超えており、思考の領域を含んでいる。
我々は、これらの概念を明確にし、将来のAI応用と研究における多くの実践者や政策立案者に対して、XAI、IAI、EAI、TAIの基礎を築いたいと考えています。
論文 参考訳(メタデータ) (2024-08-22T14:12:53Z) - Distance-Restricted Explanations: Theoretical Underpinnings & Efficient Implementation [19.22391463965126]
機械学習(ML)のいくつかの用途には、高い評価と安全性クリティカルなアプリケーションが含まれる。
本稿では,論理ベースの説明器の性能向上のための新しいアルゴリズムについて検討する。
論文 参考訳(メタデータ) (2024-05-14T03:42:33Z) - LLMs for XAI: Future Directions for Explaining Explanations [50.87311607612179]
既存のXAIアルゴリズムを用いて計算した説明の精細化に着目する。
最初の実験とユーザスタディは、LLMがXAIの解釈可能性とユーザビリティを高めるための有望な方法を提供することを示唆している。
論文 参考訳(メタデータ) (2024-05-09T19:17:47Z) - Usable XAI: 10 Strategies Towards Exploiting Explainability in the LLM Era [77.174117675196]
XAIはLarge Language Models (LLM)に拡張されている
本稿では,XAIがLLMやAIシステムにどのようなメリットをもたらすかを分析する。
10の戦略を導入し、それぞれに重要なテクニックを導入し、関連する課題について議論します。
論文 参考訳(メタデータ) (2024-03-13T20:25:27Z) - Pyreal: A Framework for Interpretable ML Explanations [51.14710806705126]
Pyrealは、さまざまな解釈可能な機械学習説明を生成するシステムである。
Pyrealは、モデルによって期待される機能空間、関連する説明アルゴリズム、および人間のユーザ間でデータと説明を変換する。
我々の研究は、Pyrealが既存のシステムよりも有用な説明を生成することを示した。
論文 参考訳(メタデータ) (2023-12-20T15:04:52Z) - On Explainability in AI-Solutions: A Cross-Domain Survey [4.394025678691688]
システムモデルを自動的に導出する際、AIアルゴリズムは人間には検出できないデータで関係を学習する。
モデルが複雑になればなるほど、人間が意思決定の理由を理解するのが難しくなる。
この研究は、この話題に関する広範な文献調査を提供し、その大部分は、他の調査から成っている。
論文 参考訳(メタデータ) (2022-10-11T06:21:47Z) - Responsibility: An Example-based Explainable AI approach via Training
Process Inspection [1.4610038284393165]
我々は、特定の決定に対して最も責任あるトレーニング例を特定する新しいXAIアプローチを提案する。
この例は、"これが私が(AI)学んだことであり、それが私をそのようにしました"、という説明として示されます。
以上の結果から,ヒューマンエンドユーザとセカンダリMLモデルの両方において,責任が精度の向上に有効であることが示唆された。
論文 参考訳(メタデータ) (2022-09-07T19:30:01Z) - OmniXAI: A Library for Explainable AI [98.07381528393245]
eXplainable AI(XAI)のオープンソースPythonライブラリであるOmniXAIを紹介する。
オールニウェイで説明可能なAI機能と、さまざまな解釈可能な機械学習技術を提供する。
実践者にとってこのライブラリは、アプリケーションの説明を生成するために、使いやすく統合されたインターフェースを提供する。
論文 参考訳(メタデータ) (2022-06-01T11:35:37Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。