論文の概要: Delivering Inflated Explanations
- arxiv url: http://arxiv.org/abs/2306.15272v1
- Date: Tue, 27 Jun 2023 07:54:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 14:21:28.659755
- Title: Delivering Inflated Explanations
- Title(参考訳): 膨らんだ説明を提供する
- Authors: Yacine Izza, Alexey Ignatiev, Peter Stuckey, Joao Marques-Silva
- Abstract要約: 説明可能性に関する正式なアプローチは、AIシステムの正式なモデルを構築します。
正式な帰納的説明は、与えられた値を取ると、常に同じ決定を下すような一連の特徴である。
本稿では,特徴の集合である膨らんだ説明と値の集合の各特徴について,その決定が変わらないように定義する。
- 参考スコア(独自算出の注目度): 17.646704122091087
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the quest for Explainable Artificial Intelligence (XAI) one of the
questions that frequently arises given a decision made by an AI system is,
``why was the decision made in this way?'' Formal approaches to explainability
build a formal model of the AI system and use this to reason about the
properties of the system. Given a set of feature values for an instance to be
explained, and a resulting decision, a formal abductive explanation is a set of
features, such that if they take the given value will always lead to the same
decision. This explanation is useful, it shows that only some features were
used in making the final decision. But it is narrow, it only shows that if the
selected features take their given values the decision is unchanged. It's
possible that some features may change values and still lead to the same
decision. In this paper we formally define inflated explanations which is a set
of features, and for each feature of set of values (always including the value
of the instance being explained), such that the decision will remain unchanged.
Inflated explanations are more informative than abductive explanations since
e.g they allow us to see if the exact value of a feature is important, or it
could be any nearby value. Overall they allow us to better understand the role
of each feature in the decision. We show that we can compute inflated
explanations for not that much greater cost than abductive explanations, and
that we can extend duality results for abductive explanations also to inflated
explanations.
- Abstract(参考訳): xai(the quest for explainable artificial intelligence)では、aiシステムによって下された決定が頻繁に発生する質問のひとつに、説明可能性に関する公式なアプローチが、aiシステムの形式モデルを構築し、それを使ってシステムの特性を判断する、というものがある。
説明すべきインスタンスの一連の機能値と結果の決定が与えられると、公式なアブダプティブな説明は、与えられた値が与えられた場合、常に同じ決定につながるような機能の集合である。
この説明は有用であり、最終決定に使われたのはいくつかの機能のみであることを示している。
しかし、狭く、選択された特徴が与えられた値を取ると、決定は変わらないことを示している。
いくつかの機能が値を変更し、同じ決定を下す可能性がある。
本稿では,特徴の集合である膨らませた説明を形式的に定義し,各特徴量の値集合(説明対象のインスタンスの値を含む)について,決定が不変となるように定義する。
膨らませられた説明は誘惑的な説明よりも情報的であり、例えば、ある特徴の正確な値が重要であるか、あるいはそれに近い値であるかどうかを確認することができる。
全体として、決定における各機能の役割をよりよく理解することができます。
我々は, 膨らませた説明を誘引的説明よりもそれほどコストがかからず, 膨らませた説明に対して, 双対性を拡張できることを示した。
関連論文リスト
- Abductive explanations of classifiers under constraints: Complexity and properties [6.629765271909503]
制約を考慮に入れた3つの新しいタイプの説明を提案する。
それらは、機能空間全体から、あるいはデータセットから生成できる。
我々は、冗長で過剰なAXpを捨てるには、カバレッジが十分であることを示す。
論文 参考訳(メタデータ) (2024-09-18T17:15:39Z) - Axiomatic Characterisations of Sample-based Explainers [8.397730500554047]
サンプルやデータセットから特徴に基づく説明を生成する説明を精査する。
我々は、他のすべてと互換性のある2つの重要な特性を満たす説明者のファミリー全体を識別する。
我々は、説明の存在と不確実なグローバル整合性を保証する最初の(広義の)説明者を紹介する。
論文 参考訳(メタデータ) (2024-08-09T07:10:07Z) - A New Class of Explanations for Classifiers with Non-Binary Features [11.358487655918676]
分類器による意思決定の分析において,2種類の説明が文献に注目されている。
非バイナリ機能の存在下では,これらの説明が大幅に改善できることが示唆された。
必要かつ十分な理由が、決定の完全な理由の素因および因果関係であることが示されている。
論文 参考訳(メタデータ) (2023-04-28T11:05:46Z) - Eliminating The Impossible, Whatever Remains Must Be True [46.39428193548396]
より簡潔な「なぜ」形式的な説明をするために背景知識を適用する方法を示す。
また,既存のルール誘導手法を用いて,データセットから背景情報を効率的に抽出する方法を示す。
論文 参考訳(メタデータ) (2022-06-20T03:18:14Z) - Explanatory Paradigms in Neural Networks [18.32369721322249]
本稿では、推論に基づく質問に対する解答として説明を考慮し、ニューラルネットワークにおける説明可能性の研究に飛躍的に拡張する。
これらの質問に対する回答は, それぞれ, 相関, 反事実, 対照的な説明である。
この用語は、訓練されたニューラルネットワークが決定を下した後に、説明的手法が$P$を説明したとき、ホック後の説明可能性の特定のケースを指す。
論文 参考訳(メタデータ) (2022-02-24T00:22:11Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Are Training Resources Insufficient? Predict First Then Explain! [54.184609286094044]
我々は、予測理論(PtE)アーキテクチャはモデリングの観点からより効率的なアプローチであると主張している。
PtE構造は説明データが欠如している場合に最もデータ効率のよい手法であることを示す。
論文 参考訳(メタデータ) (2021-08-29T07:04:50Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Explaining Data-Driven Decisions made by AI Systems: The Counterfactual
Approach [11.871523410051527]
我々は、その決定を因果的に駆動するシステムのデータ入力の集合として、説明を考察する。
モデル予測において重要な重みを持つ特徴が対応する決定に影響を及ぼさない可能性があることを示す。
論文 参考訳(メタデータ) (2020-01-21T09:58:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。