論文の概要: Fair Feature Importance Scores via Feature Occlusion and Permutation
- arxiv url: http://arxiv.org/abs/2602.09196v1
- Date: Mon, 09 Feb 2026 21:02:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.247081
- Title: Fair Feature Importance Scores via Feature Occlusion and Permutation
- Title(参考訳): 特徴排除と置換による特徴重要度スコア
- Authors: Camille Little, Madeline Navarro, Santiago Segarra, Genevera Allen,
- Abstract要約: 公平な特徴の重要度を測定するためのモデルに依存しない2つのアプローチを提案する。
まず、特徴値の置換前後のモデルフェアネスを比較する。
第二に、与えられた特徴を伴わずに訓練されたモデルの公平性を評価する。
- 参考スコア(独自算出の注目度): 41.73851747821022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As machine learning models increasingly impact society, their opaque nature poses challenges to trust and accountability, particularly in fairness contexts. Understanding how individual features influence model outcomes is crucial for building interpretable and equitable models. While feature importance metrics for accuracy are well-established, methods for assessing feature contributions to fairness remain underexplored. We propose two model-agnostic approaches to measure fair feature importance. First, we propose to compare model fairness before and after permuting feature values. This simple intervention-based approach decouples a feature and model predictions to measure its contribution to training. Second, we evaluate the fairness of models trained with and without a given feature. This occlusion-based score enjoys dramatic computational simplification via minipatch learning. Our empirical results reflect the simplicity and effectiveness of our proposed metrics for multiple predictive tasks. Both methods offer simple, scalable, and interpretable solutions to quantify the influence of features on fairness, providing new tools for responsible machine learning development.
- Abstract(参考訳): 機械学習モデルが社会にますます影響を及ぼすにつれて、その不透明な性質は、特に公正な文脈において、信頼と説明責任への挑戦を引き起こす。
個々の機能がモデルの結果にどのように影響するかを理解することは、解釈可能で公平なモデルを構築するのに不可欠である。
精度のための特徴重要度基準は確立されているが、公平性に対する特徴的寄与を評価する方法はまだ未定である。
公平な特徴の重要度を測定するためのモデルに依存しない2つのアプローチを提案する。
まず,特徴値の置換前後のモデルフェアネスを比較する。
このシンプルな介入ベースのアプローチは、機能とモデル予測を分離して、トレーニングへの貢献度を測定する。
第二に、与えられた特徴を伴わずに訓練されたモデルの公平性を評価する。
このオクルージョンに基づくスコアは、ミニパッチ学習による劇的な計算単純化を享受する。
実験結果は,複数の予測タスクに対して提案した指標の単純さと有効性を反映している。
どちらの方法もシンプルでスケーラブルで解釈可能なソリューションを提供し、特徴が公正性に与える影響を定量化し、機械学習開発に責任を負うための新しいツールを提供する。
関連論文リスト
- CID: Measuring Feature Importance Through Counterfactual Distributions [0.7559720049837458]
本稿では,CID(Counterfactual Importance Distribution)と呼ばれる,ポストホックな特徴重要度評価手法を提案する。
我々は2つの正および負の反事実集合を生成し、ケルネル密度推定を用いてそれらの分布をモデル化し、分布の相似性尺度に基づいて階数特徴を定式化する。
提案手法の有効性を,確立した特徴量説明器との比較により示す。
論文 参考訳(メタデータ) (2025-11-19T11:57:59Z) - Visual Model Selection using Feature Importance Clusters in Fairness-Performance Similarity Optimized Space [1.8682641481190012]
モデルポートフォリオ間のトレードオフのナビゲートと解釈を支援するインタラクティブなフレームワークを提案する。
我々の手法は、弱教師付き計量学習を利用して、公正さとパフォーマンス結果の類似性を反映したマハラノビス距離を学習する。
次に,特徴量の変換表現に基づいて,グループモデルにクラスタリング手法(k-means)を適用する。
論文 参考訳(メタデータ) (2025-10-25T08:18:41Z) - From Efficiency to Equity: Measuring Fairness in Preference Learning [3.2132738637761027]
不平等とロウルシアン正義の経済理論に触発された嗜好学習モデルの公平性を評価する。
Gini Coefficient, Atkinson Index, Kuznets Ratio を用いて,これらのモデルの公平性を定量化するための指標を提案する。
論文 参考訳(メタデータ) (2024-10-24T15:25:56Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - FAIR: Fair Adversarial Instance Re-weighting [0.7829352305480285]
本研究では,公正な予測を確実にするインスタンス重み付け関数の学習に敵対的トレーニングを利用するFair Adrial Instance Re-weighting(FAIR)手法を提案する。
我々の知る限りでは、これは、個々のインスタンスの公平性に関する解釈可能な情報を提供する重み付け関数によって、再重み付けと逆方向のアプローチをマージする最初のモデルである。
論文 参考訳(メタデータ) (2020-11-15T10:48:56Z) - Counterfactual Representation Learning with Balancing Weights [74.67296491574318]
観察データによる因果推論の鍵は、それぞれの治療タイプに関連する予測的特徴のバランスを達成することである。
近年の文献では、この目標を達成するために表現学習を探求している。
因果効果を柔軟かつスケーラブルかつ正確に推定するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-10-23T19:06:03Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Adversarial Infidelity Learning for Model Interpretation [43.37354056251584]
本稿では,モデル解釈のためのモデル非依存能率直接(MEED)FSフレームワークを提案する。
我々のフレームワークは、正当性、ショートカット、モデルの識別可能性、情報伝達に関する懸念を緩和する。
我々のAILメカニズムは、選択した特徴と目標の間の条件分布を学習するのに役立ちます。
論文 参考訳(メタデータ) (2020-06-09T16:27:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。