論文の概要: Explaining Any ML Model? -- On Goals and Capabilities of XAI
- arxiv url: http://arxiv.org/abs/2206.13888v1
- Date: Tue, 28 Jun 2022 11:09:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-02 11:53:44.993649
- Title: Explaining Any ML Model? -- On Goals and Capabilities of XAI
- Title(参考訳): mlモデルを説明する?
--XAIの目標と能力について
- Authors: Moritz Renftle, Holger Trittenbach, Michael Poznic, Reinhard Heil
- Abstract要約: 我々は、XAIアルゴリズムの目標と能力はよく理解されていないと論じる。
ユーザは多様な質問をすることができるが、その中の1つだけが現在のXAIアルゴリズムで答えられる。
- 参考スコア(独自算出の注目度): 2.236663830879273
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: An increasing ubiquity of machine learning (ML) motivates research on
algorithms to explain ML models and their predictions -- so-called eXplainable
Artificial Intelligence (XAI). Despite many survey papers and discussions, the
goals and capabilities of XAI algorithms are far from being well understood. We
argue that this is because of a problematic reasoning scheme in XAI literature:
XAI algorithms are said to complement ML models with desired properties, such
as "interpretability", or "explainability". These properties are in turn
assumed to contribute to a goal, like "trust" in an ML system. But most
properties lack precise definitions and their relationship to such goals is far
from obvious. The result is a reasoning scheme that obfuscates research results
and leaves an important question unanswered: What can one expect from XAI
algorithms? In this article, we clarify the goals and capabilities of XAI
algorithms from a concrete perspective: that of their users. Explaining ML
models is only necessary if users have questions about them. We show that users
can ask diverse questions, but that only one of them can be answered by current
XAI algorithms. Answering this core question can be trivial, difficult or even
impossible, depending on the ML application. Based on these insights, we
outline which capabilities policymakers, researchers and society can reasonably
expect from XAI algorithms.
- Abstract(参考訳): 機械学習(ML)の普及は、機械学習モデルとその予測(いわゆるeXplainable Artificial Intelligence(XAI))を説明するアルゴリズムの研究を動機付けている。
多くの調査論文や議論にもかかわらず、XAIアルゴリズムの目標と能力はよく理解されていない。
XAIアルゴリズムは「解釈可能性」や「説明可能性」など、望ましい特性を持つMLモデルを補完すると言われている。
これらの特性は、MLシステムの"信頼"のようなゴールに寄与すると仮定される。
しかし、ほとんどの特性は正確な定義がなく、それらの目標との関係は明確ではない。
その結果、研究結果を曖昧にし、xaiアルゴリズムに何が期待できるのかという重要な疑問が残る推論スキームが生まれました。
本稿では,具体的な視点から,XAIアルゴリズムの目標と能力を明らかにする。
MLモデルの説明は、ユーザが疑問を持つ場合にのみ必要である。
ユーザは多様な質問をすることができるが、その中の1つだけが現在のXAIアルゴリズムで答えられる。
この中核的な疑問に答えることは、MLアプリケーションによっては、簡単、困難、あるいは不可能である。
これらの知見に基づき、政策立案者、研究者、社会がXAIアルゴリズムから合理的に期待できる能力について概説する。
関連論文リスト
- Usable XAI: 10 Strategies Towards Exploiting Explainability in the LLM Era [77.174117675196]
XAIはLarge Language Models (LLM)に拡張されている
本稿では,XAIがLLMやAIシステムにどのようなメリットをもたらすかを分析する。
10の戦略を導入し、それぞれに重要なテクニックを導入し、関連する課題について議論します。
論文 参考訳(メタデータ) (2024-03-13T20:25:27Z) - Pyreal: A Framework for Interpretable ML Explanations [51.14710806705126]
Pyrealは、さまざまな解釈可能な機械学習説明を生成するシステムである。
Pyrealは、モデルによって期待される機能空間、関連する説明アルゴリズム、および人間のユーザ間でデータと説明を変換する。
我々の研究は、Pyrealが既存のシステムよりも有用な説明を生成することを示した。
論文 参考訳(メタデータ) (2023-12-20T15:04:52Z) - Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - On Explainability in AI-Solutions: A Cross-Domain Survey [4.394025678691688]
システムモデルを自動的に導出する際、AIアルゴリズムは人間には検出できないデータで関係を学習する。
モデルが複雑になればなるほど、人間が意思決定の理由を理解するのが難しくなる。
この研究は、この話題に関する広範な文献調査を提供し、その大部分は、他の調査から成っている。
論文 参考訳(メタデータ) (2022-10-11T06:21:47Z) - Responsibility: An Example-based Explainable AI approach via Training
Process Inspection [1.4610038284393165]
我々は、特定の決定に対して最も責任あるトレーニング例を特定する新しいXAIアプローチを提案する。
この例は、"これが私が(AI)学んだことであり、それが私をそのようにしました"、という説明として示されます。
以上の結果から,ヒューマンエンドユーザとセカンダリMLモデルの両方において,責任が精度の向上に有効であることが示唆された。
論文 参考訳(メタデータ) (2022-09-07T19:30:01Z) - Do We Need Another Explainable AI Method? Toward Unifying Post-hoc XAI
Evaluation Methods into an Interactive and Multi-dimensional Benchmark [6.511859672210113]
我々は,xAIアルゴリズムに適用された排他的機能テスト手法を統一するベンチマークであるComparce-xAIを提案する。
このベンチマークは、xAIメソッドを評価する複雑さを3つの階層的なスコアリングにカプセル化する。
インタラクティブなユーザインターフェースは、xAI結果の解釈におけるエラーの軽減に役立つ。
論文 参考訳(メタデータ) (2022-06-08T06:13:39Z) - OmniXAI: A Library for Explainable AI [98.07381528393245]
eXplainable AI(XAI)のオープンソースPythonライブラリであるOmniXAIを紹介する。
オールニウェイで説明可能なAI機能と、さまざまな解釈可能な機械学習技術を提供する。
実践者にとってこのライブラリは、アプリケーションの説明を生成するために、使いやすく統合されたインターフェースを提供する。
論文 参考訳(メタデータ) (2022-06-01T11:35:37Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。