論文の概要: Procedural Fairness via Group Counterfactual Explanation
- arxiv url: http://arxiv.org/abs/2603.11140v1
- Date: Wed, 11 Mar 2026 16:38:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.54342
- Title: Procedural Fairness via Group Counterfactual Explanation
- Title(参考訳): グループ対実説明による手続き的公正性
- Authors: Gideon Popoola, John Sheppard,
- Abstract要約: Group Counterfactual Integrated Gradients (GCIG)は、グループ間の説明不変性を強制するプロセス内正規化フレームワークである。
本稿では,GCIGが競合予測性能を維持しつつ,グループ間説明の相違を大幅に低減することを示す。
また,グループ間におけるモデル推論の整合性は,結果の公平性を超えて公正性を高めるための原則的かつ実践的な道筋であることを示唆した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness in machine learning research has largely focused on outcome-oriented fairness criteria such as Equalized Odds, while comparatively less attention has been given to procedural-oriented fairness, which addresses how a model arrives at its predictions. Neglecting procedural fairness means it is possible for a model to generate different explanations for different protected groups, thereby eroding trust. In this work, we introduce Group Counterfactual Integrated Gradients (GCIG), an in-processing regularization framework that enforces explanation invariance across groups, conditioned on the true label. For each input, GCIG computes explanations relative to multiple Group Conditional baselines and penalizes cross-group variation in these attributions during training. GCIG formalizes procedural fairness as Group Counterfactual explanation stability and complements existing fairness objectives that constrain predictions alone. We compared GCIG empirically against six state-of-the-art methods, and the results show that GCIG substantially reduces cross-group explanation disparity while maintaining competitive predictive performance and accuracy-fairness trade-offs. Our results also show that aligning model reasoning across groups offers a principled and practical avenue for advancing fairness beyond outcome parity.
- Abstract(参考訳): 機械学習研究におけるフェアネスは、Equalized Oddsのような結果指向のフェアネス基準に主に焦点を合わせているが、プロシージャ指向のフェアネスには比較的注意が向けられていない。
手続き的公正性を無視することは、モデルが異なる保護されたグループに対して異なる説明を生成でき、それによって信頼を損なうことを意味する。
本稿では,グループ間での説明不変性を強制するプロセス内正規化フレームワークであるGCIG(Group Counterfactual Integrated Gradients)を紹介する。
それぞれの入力に対して、GCIGは複数のグループ条件ベースラインに対する説明を計算し、トレーニング中にこれらの属性の群間変動を罰する。
GCIGは、手続き的公正性をグループ対実的説明安定性として定式化し、予測のみを制約する既存の公正目標を補完する。
我々は,GCIGを6つの最先端手法に対して実証的に比較したところ,GCIGは競合予測性能と精度フェアネストレードオフを維持しつつ,グループ間説明の相違を著しく低減することがわかった。
また,グループ間におけるモデル推論の整合性は,結果の公平性を超えて公正性を高めるための原則的かつ実践的な道筋であることを示唆した。
関連論文リスト
- Equalized Generative Treatment: Matching f-divergences for Fairness in Generative Models [49.094293060279675]
等化生成処理(EGT)と呼ばれる生成モデルに対する新しいフェアネス定義を導入する。
EGTはすべてのセンシティブなグループに匹敵する生成品質を必要とし、基準f分割によって測定される。
文献から得られた他の手法と比較して,min-max法はより公平な結果が得られることを示す。
論文 参考訳(メタデータ) (2026-02-09T13:52:36Z) - On the use of graph models to achieve individual and group fairness [0.6299766708197883]
我々は、動的システムとホモロジーに基づくツールを活用して公平性をモデル化するための、せん断拡散に基づく理論的枠組みを提供する。
本稿では,異なる公平度尺度を扱うネットワークトポロジの集合について述べる。
本稿では,提案モデルの性能を,精度と公平性の観点から示す。
論文 参考訳(メタデータ) (2026-01-13T18:17:43Z) - FACEGroup: Feasible and Actionable Counterfactual Explanations for Group Fairness [6.453283750455735]
本稿では,グループフェアネスを監査するために,グループ対実的説明を生成する最初のグラフベースのフレームワークを紹介する。
我々のフレームワークであるFACEGroupは、実世界の実現可能性制約をモデル化し、類似の反事実を持つサブグループを特定し、反事実生成における重要なトレードオフを捉えます。
論文 参考訳(メタデータ) (2024-10-29T23:10:01Z) - Fairness-Aware Meta-Learning via Nash Bargaining [63.44846095241147]
本稿では,機械学習におけるグループレベルの公平性の問題に対処する2段階のメタ学習フレームワークを提案する。
第1段階では、過度な競合を解決するためにNash Bargaining Solution(NBS)を使用して、モデルをステアリングする。
6つのキーフェアネスデータセットと2つの画像分類タスクにおいて、様々なフェアネス目標に対して経験的効果を示す。
論文 参考訳(メタデータ) (2024-06-11T07:34:15Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Unified Group Fairness on Federated Learning [22.143427873780404]
フェデレートラーニング(FL)は、グローバルモデルが分散クライアントのプライベートデータに基づいてトレーニングされる、重要な機械学習パラダイムとして登場した。
近年の研究では、顧客間の公平性に焦点が当てられているが、センシティブな属性(例えば、性別や人種)によって形成される異なるグループに対する公正性は無視されている。
本稿では,G-DRFA (Group Distributionally Robust Federated Averaging) と呼ばれる新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-09T08:21:38Z) - GroupifyVAE: from Group-based Definition to VAE-based Unsupervised
Representation Disentanglement [91.9003001845855]
他の誘導バイアスを導入しないと、VAEベースの非監視的非絡み合いは実現できない。
グループ理論に基づく定義から導かれる制約を非確率的帰納的バイアスとして活用し,vaeに基づく教師なし不連続に対処する。
提案手法の有効性を検証するために,5つのデータセット上で,vaeベースモデルが最も目立つ1800モデルをトレーニングした。
論文 参考訳(メタデータ) (2021-02-20T09:49:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。