論文の概要: cc-Shapley: Measuring Multivariate Feature Importance Needs Causal Context
- arxiv url: http://arxiv.org/abs/2602.20396v1
- Date: Mon, 23 Feb 2026 22:21:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.539573
- Title: cc-Shapley: Measuring Multivariate Feature Importance Needs Causal Context
- Title(参考訳): cc-Shapley: 因果コンテキストを必要とする多変量特徴重要度の測定
- Authors: Jörg Martin, Stefan Haufe,
- Abstract要約: cc-Shapleyは、従来の観察用Shapley値の介入的な修正である。
理論的には、cc-Shapleyはコライダーバイアスによって引き起こされる刺激的関連を根絶する。
- 参考スコア(独自算出の注目度): 2.17663651602033
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable artificial intelligence promises to yield insights into relevant features, thereby enabling humans to examine and scrutinize machine learning models or even facilitating scientific discovery. Considering the widespread technique of Shapley values, we find that purely data-driven operationalization of multivariate feature importance is unsuitable for such purposes. Even for simple problems with two features, spurious associations due to collider bias and suppression arise from considering one feature only in the observational context of the other, which can lead to misinterpretations. Causal knowledge about the data-generating process is required to identify and correct such misleading feature attributions. We propose cc-Shapley (causal context Shapley), an interventional modification of conventional observational Shapley values leveraging knowledge of the data's causal structure, thereby analyzing the relevance of a feature in the causal context of the remaining features. We show theoretically that this eradicates spurious association induced by collider bias. We compare the behavior of Shapley and cc-Shapley values on various, synthetic, and real-world datasets. We observe nullification or reversal of associations compared to univariate feature importance when moving from observational to cc-Shapley.
- Abstract(参考訳): 説明可能な人工知能は、関連する特徴に関する洞察を得ることを約束し、人間が機械学習モデルを調べて精査したり、科学的な発見を促進することができる。
シェープリー値の広範化技術を考えると,多変量特徴量の重要性の純粋にデータ駆動型運用化は,そのような目的には適さないことが分かる。
2つの特徴を持つ単純な問題であっても、コライダーバイアスと抑制による急激な関連は、ある特徴が他方の観察的文脈でのみ考慮されることから生じ、誤解釈につながる可能性がある。
データ生成プロセスに関する因果的知識は、そのような誤解を招く特徴の属性を特定し、修正するために必要である。
本稿では,データ因果構造の知識を生かした従来の観察用シャプリー値の介入的修正であるcc-Shapley(因果文脈シャプリー)を提案し,その特徴の因果文脈における特徴の関連性を分析する。
理論的には、これはコライダーバイアスによって引き起こされる刺激的な関係を根絶することを示します。
各種, 合成, 実世界のデータセットにおけるShapley値とcc-Shapley値の挙動を比較した。
我々は,観察からcc-Shapleyへの移行において,一変量の特徴的重要性と比較して,関連性の無効化や逆転を観察する。
関連論文リスト
- Explainability of Complex AI Models with Correlation Impact Ratio [10.61008729196936]
複雑なAIシステムはより良い予測を行うが、透明性が欠如し、信頼性、解釈可能性、安全なデプロイメントが制限されることが多い。
ExCIR(Explainability through correlation Impact Ratio)は,モデル出力に対する入力特徴の寄与を説明するための理論的基礎とシンプルで信頼性の高い指標である。
我々は,ExCIRが軽量なシングルパスの定式化により,相関した特徴から生じる依存関係をキャプチャすることを示した。
論文 参考訳(メタデータ) (2026-01-10T21:56:24Z) - Causal SHAP: Feature Attribution with Dependency Awareness through Causal Discovery [3.717095609283206]
Causal SHAPは因果関係を特徴属性に統合する新しいフレームワークである。
本研究は、因果認識モデル説明のための実践的なフレームワークを提供することにより、説明可能なAI(XAI)の分野に寄与する。
論文 参考訳(メタデータ) (2025-08-31T13:31:34Z) - A Critical Assessment of Interpretable and Explainable Machine Learning for Intrusion Detection [0.0]
本稿では,過度に複雑で不透明なMLモデル,不均衡なデータと相関した特徴,異なる説明法における不整合な影響特徴,そして説明の不可能な有用性について検討する。
具体的には、Deep Neural Networksのような複雑な不透明モデルを避け、代わりにDecision Treesのような解釈可能なMLモデルを使用することを推奨する。
機能ベースのモデル説明は、多くの場合、異なる設定で矛盾している。
論文 参考訳(メタデータ) (2024-07-04T15:35:42Z) - Causal Feature Selection via Transfer Entropy [59.999594949050596]
因果発見は、観察データによる特徴間の因果関係を特定することを目的としている。
本稿では,前向きと後向きの機能選択に依存する新たな因果的特徴選択手法を提案する。
精度および有限サンプルの場合の回帰誤差と分類誤差について理論的に保証する。
論文 参考訳(メタデータ) (2023-10-17T08:04:45Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Unsupervised Features Ranking via Coalitional Game Theory for
Categorical Data [0.28675177318965034]
教師なしの機能選択は、機能の数を減らすことを目的としている。
導出特徴の選択は、冗長率を下げる競合する手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-17T14:17:36Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z) - Learning Causal Models Online [103.87959747047158]
予測モデルは、予測を行うためにデータの急激な相関に依存することができる。
強い一般化を達成するための一つの解決策は、モデルに因果構造を組み込むことである。
本稿では,突発的特徴を継続的に検出・除去するオンラインアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-12T20:49:20Z) - Bayesian Sparse Factor Analysis with Kernelized Observations [67.60224656603823]
多視点問題は潜在変数モデルに直面することができる。
高次元問題と非線形問題は伝統的にカーネルメソッドによって扱われる。
両アプローチを単一モデルにマージすることを提案する。
論文 参考訳(メタデータ) (2020-06-01T14:25:38Z) - A Critical View of the Structural Causal Model [89.43277111586258]
相互作用を全く考慮せずに原因と効果を識別できることが示される。
本稿では,因果モデルの絡み合った構造を模倣する新たな逆行訓練法を提案する。
我々の多次元手法は, 合成および実世界の両方のデータセットにおいて, 文献的手法よりも優れている。
論文 参考訳(メタデータ) (2020-02-23T22:52:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。