論文の概要: Model Explanations via the Axiomatic Causal Lens
- arxiv url: http://arxiv.org/abs/2109.03890v7
- Date: Fri, 16 Feb 2024 00:16:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 22:10:01.600417
- Title: Model Explanations via the Axiomatic Causal Lens
- Title(参考訳): 公理的因果レンズによるモデル説明
- Authors: Gagan Biradar, Vignesh Viswanathan, Yair Zick
- Abstract要約: そこで本研究では,すべての原因の集合を特徴重みに集約する3つの説明尺度を提案する。
最初の尺度は、チョックラーとハルパーンの因果責任の概念の自然な適応である。
我々は、ブラックボックスモデル説明のためのShapley-ShubikとBanzhafの指標を計算するための新しい手法を導出するために、我々のアプローチを拡張した。
- 参考スコア(独自算出の注目度): 9.915489218010952
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explaining the decisions of black-box models is a central theme in the study
of trustworthy ML. Numerous measures have been proposed in the literature;
however, none of them take an axiomatic approach to causal explainability. In
this work, we propose three explanation measures which aggregate the set of all
but-for causes -- a necessary and sufficient explanation -- into feature
importance weights. Our first measure is a natural adaptation of Chockler and
Halpern's notion of causal responsibility, whereas the other two correspond to
existing game-theoretic influence measures. We present an axiomatic treatment
for our proposed indices, showing that they can be uniquely characterized by a
set of desirable properties. We also extend our approach to derive a new method
to compute the Shapley-Shubik and Banzhaf indices for black-box model
explanations. Finally, we analyze and compare the necessity and sufficiency of
all our proposed explanation measures in practice using the Adult-Income
dataset. Thus, our work is the first to formally bridge the gap between model
explanations, game-theoretic influence, and causal analysis.
- Abstract(参考訳): ブラックボックスモデルの決定を説明することは、信頼できるMLの研究における中心的なテーマである。
文献には数多くの尺度が提案されているが、因果的説明可能性に対する公理的なアプローチを採る者はいない。
そこで本研究では,すべての原因(必要かつ十分な説明)の集合を特徴重みに集約する3つの説明尺度を提案する。
最初の尺度はチョックラーとハルパーンの因果責任の概念の自然な適応であり、他の2つは既存のゲーム理論の影響尺度に対応している。
提案する指標を公理的に処理し,望ましい性質のセットで一意に特徴付けることができることを示した。
我々はまた、ブラックボックスモデル説明のためのShapley-ShubikとBanzhafの指標を計算するための新しい方法の導出にもアプローチを拡張した。
最後に,本研究で提案するすべての説明手法の必要性と満足度について,成人所得者データセットを用いて分析し,比較した。
したがって、私たちの研究は、モデル説明、ゲーム理論の影響、因果分析の間のギャップを正式に橋渡しする最初の方法です。
関連論文リスト
- Counterfactual explainability of black-box prediction models [4.14360329494344]
ブラックボックス予測モデルに対する対実的説明可能性という新しい概念を提案する。
対物的説明可能性には3つの大きな利点がある。
論文 参考訳(メタデータ) (2024-11-03T16:29:09Z) - Evaluating the Robustness of Interpretability Methods through
Explanation Invariance and Equivariance [72.50214227616728]
解釈可能性法は、それらの説明が説明されたモデルを忠実に記述した場合にのみ有用である。
特定の対称性群の下で予測が不変であるニューラルネットワークを考える。
論文 参考訳(メタデータ) (2023-04-13T17:59:03Z) - Active Bayesian Causal Inference [72.70593653185078]
因果発見と推論を統合するための完全ベイズ能動学習フレームワークであるアクティブベイズ因果推論(ABCI)を提案する。
ABCIは因果関係のモデルと関心のクエリを共同で推論する。
我々のアプローチは、完全な因果グラフの学習のみに焦点を当てた、いくつかのベースラインよりも、よりデータ効率が高いことを示す。
論文 参考訳(メタデータ) (2022-06-04T22:38:57Z) - Explaining Causal Models with Argumentation: the Case of Bi-variate
Reinforcement [15.947501347927687]
因果モデルから議論フレームワーク(AF)を生成するための概念化を導入する。
この概念化は、AFの意味論の望ましい性質を説明型として再解釈することに基づいている。
我々はこれらの論証的説明の理論的評価を行い、それらが望ましい説明的および論証的特性の範囲を満たすかどうかを検討する。
論文 参考訳(メタデータ) (2022-05-23T19:39:51Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - On Shapley Credit Allocation for Interpretability [1.52292571922932]
学習モデルの判断を解釈する際に適切な質問を行うことの重要性を強調する。
本稿では,Shapley symmetrizationの特徴関数として,解釈の異なる性質と異なる尺度を織り込むことによって特徴関連性を定量化する。
論文 参考訳(メタデータ) (2020-12-10T08:25:32Z) - Towards Interpretable Reasoning over Paragraph Effects in Situation [126.65672196760345]
我々は,原因と効果を理解するためのモデルを必要とする状況において,段落効果を推論する作業に焦点をあてる。
本稿では,ニューラルネットワークモジュールを用いた推論プロセスの各ステップを明示的にモデル化する逐次的手法を提案する。
特に、5つの推論モジュールはエンドツーエンドで設計され、学習され、より解釈可能なモデルにつながる。
論文 参考訳(メタデータ) (2020-10-03T04:03:52Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Debiasing Concept-based Explanations with Causal Analysis [4.911435444514558]
本研究は,特徴の相違する情報と相関する概念の問題点について考察する。
観測されていない変数の影響をモデル化するための新しい因果前グラフを提案する。
提案手法は,概念が完成していない場合に有効であることを示す。
論文 参考訳(メタデータ) (2020-07-22T15:42:46Z) - High Dimensional Model Explanations: an Axiomatic Approach [14.908684655206494]
複雑なブラックボックス機械学習モデルは、重要な意思決定領域で頻繁に使用される。
特徴部分集合の結合効果をキャプチャする新しい高次元モデル説明法を提案する。
論文 参考訳(メタデータ) (2020-06-16T07:48:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。