論文の概要: On the Connection between Game-Theoretic Feature Attributions and
Counterfactual Explanations
- arxiv url: http://arxiv.org/abs/2307.06941v1
- Date: Thu, 13 Jul 2023 17:57:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-14 13:39:46.969766
- Title: On the Connection between Game-Theoretic Feature Attributions and
Counterfactual Explanations
- Title(参考訳): ゲーム理論的特徴属性と対実的説明の関連について
- Authors: Emanuele Albini, Shubham Sharma, Saumitra Mishra, Danial Dervovic,
Daniele Magazzeni
- Abstract要約: 最も一般的な説明は、特徴属性と反実的説明である。
この研究は、ゲーム理論的特徴属性と反事実的説明の間に明確な理論的関係を確立する。
我々は、特徴的重要性を提供するために、反事実的説明を用いることの限界に光を当てた。
- 参考スコア(独自算出の注目度): 14.552505966070358
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable Artificial Intelligence (XAI) has received widespread interest in
recent years, and two of the most popular types of explanations are feature
attributions, and counterfactual explanations. These classes of approaches have
been largely studied independently and the few attempts at reconciling them
have been primarily empirical. This work establishes a clear theoretical
connection between game-theoretic feature attributions, focusing on but not
limited to SHAP, and counterfactuals explanations. After motivating operative
changes to Shapley values based feature attributions and counterfactual
explanations, we prove that, under conditions, they are in fact equivalent. We
then extend the equivalency result to game-theoretic solution concepts beyond
Shapley values. Moreover, through the analysis of the conditions of such
equivalence, we shed light on the limitations of naively using counterfactual
explanations to provide feature importances. Experiments on three datasets
quantitatively show the difference in explanations at every stage of the
connection between the two approaches and corroborate the theoretical findings.
- Abstract(参考訳): 説明可能な人工知能(XAI)は近年広く関心を集めており、最も一般的な2つの説明は特徴属性と反事実的説明である。
これらのアプローチのクラスは独立して研究されており、それらを調停しようとする試みは主に経験的だった。
この研究は、ゲーム理論的特徴属性の明確な理論的関係を確立し、SHAPに限らず、反事実的説明に焦点をあてる。
特徴帰属と反事実的説明に基づくシェープリー値の操作的変化を動機づけた後、条件下では、実際に同等であることが証明される。
次に、同値結果をShapley値を超えてゲーム理論の解の概念に拡張する。
さらに,このような同値条件の分析を通じて,非事実的説明を生かして特徴量を提供するという限界を浮き彫りにした。
3つのデータセットの実験は、2つのアプローチ間の関係のどの段階でも説明の相違を定量的に示し、理論的な発見を裏付けるものである。
関連論文リスト
- Class-wise Activation Unravelling the Engima of Deep Double Descent [0.0]
二重降下は、機械学習領域内の反直観的な側面を示す。
本研究では,二重降下現象を再考し,その発生状況について考察した。
論文 参考訳(メタデータ) (2024-05-13T12:07:48Z) - Axiomatic Aggregations of Abductive Explanations [13.277544022717404]
ポストホックモデル近似説明法のロバスト性に対する最近の批判は、モデル精度の誘引的説明の台頭につながっている。
そのような場合、単一の帰納的説明を提供することは不十分であり、一方、有効な帰納的説明を提供することは、その大きさのため理解できない。
本稿では,協調ゲーム理論のパワー指標に基づく2つのアグリゲーション法と,因果強度のよく知られた尺度に基づく3番目の方法を提案する。
論文 参考訳(メタデータ) (2023-09-29T04:06:10Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - A Theoretical Framework for AI Models Explainability with Application in
Biomedicine [3.5742391373143474]
本稿では,文献に見いだせる内容の合成である説明の新たな定義を提案する。
我々は、忠実性(すなわち、モデルの内部動作と意思決定プロセスの真の説明である説明)と可否性(つまり、その説明がどの程度ユーザにとって説得力のあるように見えるか)の性質に、説明を適合させる。
論文 参考訳(メタデータ) (2022-12-29T20:05:26Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - REVEL Framework to measure Local Linear Explanations for black-box
models: Deep Learning Image Classification case of study [12.49538398746092]
本稿では,理論的コヒーレントな発展を伴う説明の質に関する諸側面を評価するためのREVELと呼ばれる手法を提案する。
実験は,REVELの記述的および解析的パワーを示すベンチマークとして,画像4つのデータセットを用いて実施されている。
論文 参考訳(メタデータ) (2022-11-11T12:15:36Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Nested Counterfactual Identification from Arbitrary Surrogate
Experiments [95.48089725859298]
観測と実験の任意の組み合わせからネスト反事実の同定について検討した。
具体的には、任意のネストされた反事実を非ネストされたものへ写像できる反ファクト的非ネスト定理(英語版)(CUT)を証明する。
論文 参考訳(メタデータ) (2021-07-07T12:51:04Z) - On the Connections between Counterfactual Explanations and Adversarial
Examples [14.494463243702908]
本研究は, 対実的説明と敵対的事例との間の関係を定式化するための最初の試みである。
本分析は,いくつかの反事実的説明法と逆例生成法が等価であることを示す。
人工および実世界のデータセットを用いた広範囲な実験により理論的知見を実証的に検証した。
論文 参考訳(メタデータ) (2021-06-18T08:22:24Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。