論文の概要: Counterfactual explainability and analysis of variance
- arxiv url: http://arxiv.org/abs/2411.01625v2
- Date: Sat, 04 Oct 2025 02:13:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 14:28:09.079933
- Title: Counterfactual explainability and analysis of variance
- Title(参考訳): 分散の因果的説明可能性と解析
- Authors: Zijun Gao, Qingyuan Zhao,
- Abstract要約: 複雑なモデルやシステムを説明する既存のツールは因果関係ではなく関連性がある。
本稿では,因果帰属に対する反事実的説明可能性という新しい概念を提案する。
- 参考スコア(独自算出の注目度): 3.4895986723227383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing tools for explaining complex models and systems are associational rather than causal and do not provide mechanistic understanding. We propose a new notion called counterfactual explainability for causal attribution that is motivated by the concept of genetic heritability in twin studies. Counterfactual explainability extends methods for global sensitivity analysis (including the functional analysis of variance and Sobol's indices), which assumes independent explanatory variables, to dependent explanations by using a directed acyclic graphs to describe their causal relationship. Therefore, this explanability measure directly incorporates causal mechanisms by construction. Under a comonotonicity assumption, we discuss methods for estimating counterfactual explainability and apply them to a real dataset dataset to explain income inequality by gender, race, and educational attainment.
- Abstract(参考訳): 複雑なモデルやシステムを説明する既存のツールは因果関係ではなく関連性があり、機械的な理解を提供していない。
双生児研究における遺伝的遺伝性の概念に動機づけられた因果帰属に関する反事実的説明可能性という新しい概念を提案する。
対実的説明可能性(英語版)は、独立説明変数を仮定する大域的感度解析(分散とソボの指標の関数解析を含む)の手法を、有向非巡回グラフを用いてそれらの因果関係を記述することによって依存的説明に拡張する。
したがって、この説明可能性尺度は、建設による因果的メカニズムを直接組み込む。
コモノトニティの仮定に基づき、反現実的説明可能性を推定し、実際のデータセットに適用し、性別、人種、教育的達成による所得不平等を説明する方法について議論する。
関連論文リスト
- Internal Causal Mechanisms Robustly Predict Language Model Out-of-Distribution Behaviors [61.92704516732144]
正当性予測の最も堅牢な特徴は、モデルの振舞いに特徴的な因果的役割を果たすものであることを示す。
モデル出力の正しさを予測するために因果メカニズムを利用する2つの手法を提案する。
論文 参考訳(メタデータ) (2025-05-17T00:31:39Z) - Hard to Explain: On the Computational Hardness of In-Distribution Model Interpretation [0.9558392439655016]
機械学習(ML)モデルを解釈する能力はますます不可欠になりつつある。
近年の研究では、様々なモデルの意思決定を説明する計算複雑性を研究することにより、解釈可能性について正式に評価することが可能であることが示されている。
論文 参考訳(メタデータ) (2024-08-07T17:20:52Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Evaluating the Robustness of Interpretability Methods through
Explanation Invariance and Equivariance [72.50214227616728]
解釈可能性法は、それらの説明が説明されたモデルを忠実に記述した場合にのみ有用である。
特定の対称性群の下で予測が不変であるニューラルネットワークを考える。
論文 参考訳(メタデータ) (2023-04-13T17:59:03Z) - Explanatory causal effects for model agnostic explanations [27.129579550130423]
機械学習モデルを用いて、特定のインスタンスの予測に対する特徴の寄与を推定する問題について検討する。
課題は、既存の因果効果のほとんどは、既知の因果グラフなしではデータから推定できないことである。
仮説的理想実験に基づいて説明的因果効果を定義する。
論文 参考訳(メタデータ) (2022-06-23T08:25:31Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Explaining Causal Models with Argumentation: the Case of Bi-variate
Reinforcement [15.947501347927687]
因果モデルから議論フレームワーク(AF)を生成するための概念化を導入する。
この概念化は、AFの意味論の望ましい性質を説明型として再解釈することに基づいている。
我々はこれらの論証的説明の理論的評価を行い、それらが望ましい説明的および論証的特性の範囲を満たすかどうかを検討する。
論文 参考訳(メタデータ) (2022-05-23T19:39:51Z) - Model Explanations via the Axiomatic Causal Lens [9.915489218010952]
そこで本研究では,すべての原因の集合を特徴重みに集約する3つの説明尺度を提案する。
最初の尺度は、チョックラーとハルパーンの因果責任の概念の自然な適応である。
我々は、ブラックボックスモデル説明のためのShapley-ShubikとBanzhafの指標を計算するための新しい手法を導出するために、我々のアプローチを拡張した。
論文 参考訳(メタデータ) (2021-09-08T19:33:52Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Explaining the Behavior of Black-Box Prediction Algorithms with Causal
Learning [9.279259759707996]
ブラックボックス予測モデルのポストホック説明可能性に対する因果的アプローチは、ますます人気が高まっている。
因果図形表現を学習し、特徴間の任意の非計測的共起を可能にする。
我々のアプローチは、適切な説明が介入論的な意味で「異論者」である要因を示唆する因果説明の反実理論によって動機付けられている。
論文 参考訳(メタデータ) (2020-06-03T19:02:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。