論文の概要: CID: Measuring Feature Importance Through Counterfactual Distributions
- arxiv url: http://arxiv.org/abs/2511.15371v1
- Date: Wed, 19 Nov 2025 11:57:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.790162
- Title: CID: Measuring Feature Importance Through Counterfactual Distributions
- Title(参考訳): CID: 対物的分布による特徴重要度の測定
- Authors: Eddie Conti, Álvaro Parafita, Axel Brando,
- Abstract要約: 本稿では,CID(Counterfactual Importance Distribution)と呼ばれる,ポストホックな特徴重要度評価手法を提案する。
我々は2つの正および負の反事実集合を生成し、ケルネル密度推定を用いてそれらの分布をモデル化し、分布の相似性尺度に基づいて階数特徴を定式化する。
提案手法の有効性を,確立した特徴量説明器との比較により示す。
- 参考スコア(独自算出の注目度): 0.7559720049837458
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Assessing the importance of individual features in Machine Learning is critical to understand the model's decision-making process. While numerous methods exist, the lack of a definitive ground truth for comparison highlights the need for alternative, well-founded measures. This paper introduces a novel post-hoc local feature importance method called Counterfactual Importance Distribution (CID). We generate two sets of positive and negative counterfactuals, model their distributions using Kernel Density Estimation, and rank features based on a distributional dissimilarity measure. This measure, grounded in a rigorous mathematical framework, satisfies key properties required to function as a valid metric. We showcase the effectiveness of our method by comparing with well-established local feature importance explainers. Our method not only offers complementary perspectives to existing approaches, but also improves performance on faithfulness metrics (both for comprehensiveness and sufficiency), resulting in more faithful explanations of the system. These results highlight its potential as a valuable tool for model analysis.
- Abstract(参考訳): 機械学習における個々の機能の重要性を評価することは、モデルの意思決定プロセスを理解するために重要である。
多くの方法が存在するが、比較のための決定的な基礎的真実が欠如していることは、代替的、しっかりとした尺度の必要性を浮き彫りにしている。
本稿では,CID(Counterfactual Importance Distribution)と呼ばれる,ポストホックな特徴重要度評価手法を提案する。
我々は2つの正および負の反事実集合を生成し、ケルネル密度推定を用いてそれらの分布をモデル化し、分布の相似性尺度に基づいて階数特徴を定式化する。
この測度は厳密な数学的枠組みに基づいており、有効な計量として機能するために必要な重要な性質を満たす。
提案手法の有効性を,確立した特徴量説明器との比較により示す。
提案手法は,既存手法に補完的な視点を提供するだけでなく,信頼性指標(包括性と充足性の両方)の性能も向上し,システムに対するより忠実な説明をもたらす。
これらの結果は、モデル分析の貴重なツールとしての可能性を強調している。
関連論文リスト
- ScoresActivation: A New Activation Function for Model Agnostic Global Explainability by Design [0.815557531820863]
デザインによるグローバルな説明可能性に対する新たな差別化可能なアプローチを導入する。
特徴重要度推定を直接モデルトレーニングに統合する。
提案手法は, SHAP値と地道的特徴重要度に整合した, グローバルに忠実で安定した特徴ランクを導出する。
論文 参考訳(メタデータ) (2025-11-17T18:10:34Z) - Reliable and Reproducible Demographic Inference for Fairness in Face Analysis [63.46525489354455]
本稿では、従来のエンドツーエンドトレーニングをモジュラートランスファー学習アプローチで置き換える、完全に再現可能なDAIパイプラインを提案する。
このパイプラインは、正確性、公正性、そしてアイデンティティ内整合性によって定義される、新たに導入された堅牢性の概念の3つの次元にわたって監査する。
以上の結果から,提案手法は特に民族性において,強い基準線を上回り,その特性はより困難であることが示唆された。
論文 参考訳(メタデータ) (2025-10-23T12:22:02Z) - MaP: A Unified Framework for Reliable Evaluation of Pre-training Dynamics [72.00014675808228]
大規模言語モデルの不安定性評価プロセスは、真の学習力学を曖昧にする。
textbfMaPは、アンダーラインMergingアンダーラインとアンダーラインPass@kメトリックを統合するフレームワークです。
実験により、MaPはよりスムーズな性能曲線を示し、ラン間分散を低減し、より一貫性のあるランキングを保証する。
論文 参考訳(メタデータ) (2025-10-10T11:40:27Z) - AICO: Feature Significance Tests for Supervised Learning [0.9474649136535703]
AICOは、トレーニングされた回帰モデルや分類モデルに対して、各機能がモデルのパフォーマンスを真に改善するかどうかを問う。
機能の情報を隠蔽し、結果として生じるパフォーマンスの変化を測定することで実現します。
AICOは、モデルの振る舞いを駆動する変数を一貫して特定する。
論文 参考訳(メタデータ) (2025-06-29T21:15:40Z) - Model-free Methods for Event History Analysis and Efficient Adjustment (PhD Thesis) [55.2480439325792]
この論文は、モデルフリーの観点から統一された統計学への独立した貢献のシリーズである。
第1章では、機械学習から予測技術を活用する柔軟なメソッドを定式化するために、モデルフリーの視点をどのように利用できるか、詳しく説明している。
第2章では、あるプロセスの進化が他のプロセスに直接影響されるかどうかを記述した地域独立の概念を研究している。
論文 参考訳(メタデータ) (2025-02-11T19:24:09Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Adversarial Infidelity Learning for Model Interpretation [43.37354056251584]
本稿では,モデル解釈のためのモデル非依存能率直接(MEED)FSフレームワークを提案する。
我々のフレームワークは、正当性、ショートカット、モデルの識別可能性、情報伝達に関する懸念を緩和する。
我々のAILメカニズムは、選択した特徴と目標の間の条件分布を学習するのに役立ちます。
論文 参考訳(メタデータ) (2020-06-09T16:27:17Z) - Understanding Global Feature Contributions With Additive Importance
Measures [14.50261153230204]
我々は,各特徴に関連付けられた予測力を通じて,特徴の重要性を定義する視点について検討する。
予測力(モデルベースと普遍性)の2つの概念を導入し、付加的重要度尺度の枠組みを用いてこのアプローチを定式化する。
次に,機能的相互作用を考慮に入れながら予測力を定量化するモデルに依存しないSAGEを提案する。
論文 参考訳(メタデータ) (2020-04-01T19:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。