論文の概要: Fairness Is Not Just Ethical: Performance Trade-Off via Data Correlation Tuning to Mitigate Bias in ML Software
- arxiv url: http://arxiv.org/abs/2512.21348v1
- Date: Fri, 19 Dec 2025 23:50:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-29 20:48:41.745979
- Title: Fairness Is Not Just Ethical: Performance Trade-Off via Data Correlation Tuning to Mitigate Bias in ML Software
- Title(参考訳): 公正は倫理的ではない - データ相関チューニングによるMLソフトウェアのバイアス軽減によるパフォーマンストレードオフ
- Authors: Ying Xiao, Shangwen Wang, Sicen Liu, Dingyuan Xue, Xian Zhan, Yepang Liu, Jie M. Zhang,
- Abstract要約: 相関チューニング(CoT)は、データ相関を調整することでバイアスを軽減するために設計された新しい前処理手法である。
CoTは、非特権グループの真の正の率を平均17.5%上昇させる。
今後の研究を促進するため、実験結果とソースコードを公開します。
- 参考スコア(独自算出の注目度): 11.766190391560684
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional software fairness research typically emphasizes ethical and social imperatives, neglecting that fairness fundamentally represents a core software quality issue arising directly from performance disparities across sensitive user groups. Recognizing fairness explicitly as a software quality dimension yields practical benefits beyond ethical considerations, notably improved predictive performance for unprivileged groups, enhanced out-of-distribution generalization, and increased geographic transferability in real-world deployments. Nevertheless, existing bias mitigation methods face a critical dilemma: while pre-processing methods offer broad applicability across model types, they generally fall short in effectiveness compared to post-processing techniques. To overcome this challenge, we propose Correlation Tuning (CoT), a novel pre-processing approach designed to mitigate bias by adjusting data correlations. Specifically, CoT introduces the Phi-coefficient, an intuitive correlation measure, to systematically quantify correlation between sensitive attributes and labels, and employs multi-objective optimization to address the proxy biases. Extensive evaluations demonstrate that CoT increases the true positive rate of unprivileged groups by an average of 17.5% and reduces three key bias metrics, including statistical parity difference (SPD), average odds difference (AOD), and equal opportunity difference (EOD), by more than 50% on average. CoT outperforms state-of-the-art methods by three and ten percentage points in single attribute and multiple attributes scenarios, respectively. We will publicly release our experimental results and source code to facilitate future research.
- Abstract(参考訳): 従来のソフトウェアフェアネス研究は、倫理的および社会的命令性を強調しており、公正性は、敏感なユーザーグループ間のパフォーマンス格差から直接生じる中核的なソフトウェア品質の問題を根本的に表していることを無視している。
ソフトウェア品質の次元として明確に公正さを認識することは、倫理的考察を越えて、特に特権のないグループの予測性能の向上、配布外一般化の強化、現実世界の展開における地理的移動可能性の向上といった実践的な利益をもたらす。
しかし、既存のバイアス緩和法は重要なジレンマに直面している: 事前処理法は、モデルタイプにまたがる幅広い適用性を提供するが、一般的には、後処理技術に比べて効果が低い。
この課題を克服するために,データ相関を調整することでバイアスを軽減するために設計された新しい事前処理手法である相関調整(CoT)を提案する。
特に、CoTは、センシティブ属性とラベル間の相関を体系的に定量化するための直感的相関尺度であるPhi-coefficientを導入し、プロキシバイアスに対処するために多目的最適化を採用している。
大規模な評価では、CoTは未保有グループの真の正の率を平均17.5%増加させ、統計パリティ差(SPD)、平均奇数差(AOD)、平等機会差(EOD)の3つの主要なバイアス指標を平均50%以上減少させる。
CoTは、各属性の3ポイントと10ポイント、複数の属性のシナリオで、最先端のメソッドよりも優れています。
今後の研究を促進するため、実験結果とソースコードを公開します。
関連論文リスト
- IFFair: Influence Function-driven Sample Reweighting for Fair Classification [20.099162424205936]
本稿では,影響関数に基づくIFFairの事前処理手法を提案する。
他のフェアネス最適化手法と比較して、IFFairは異なるグループにおけるトレーニングサンプルの影響の差のみを使用する。
従来の前処理方法と比較して、複数のユーティリティとフェアネスのメトリクス間のトレードオフが向上します。
論文 参考訳(メタデータ) (2025-12-08T07:45:55Z) - Controllable Feature Whitening for Hyperparameter-Free Bias Mitigation [26.926297904648393]
ディープニューラルネットワークは、データセットに存在する急激な相関を学習することができる。
目的とバイアスの特徴の線形相関を共分散行列により定量化し, ホワイトニングモジュールを通して除去する。
提案手法は,4つのベンチマークデータセットにおける既存手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-07-27T14:01:30Z) - Causality and Independence Enhancement for Biased Node Classification [56.38828085943763]
各種グラフニューラルネットワーク(GNN)に適用可能な新しい因果性・独立性向上(CIE)フレームワークを提案する。
提案手法は,ノード表現レベルでの因果的特徴と突発的特徴を推定し,突発的相関の影響を緩和する。
我々のアプローチCIEは、GNNの性能を大幅に向上するだけでなく、最先端の debiased ノード分類法よりも優れています。
論文 参考訳(メタデータ) (2023-10-14T13:56:24Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Improving Fair Training under Correlation Shifts [33.385118640843416]
特にラベルとセンシティブなグループ間のバイアスが変化すると、トレーニングされたモデルの公平性に直接影響し、悪化する可能性がある。
既存のプロセス内フェアアルゴリズムは、精度とグループフェアネスに根本的な限界があることを解析的に示す。
相関シフトを減らすために入力データをサンプリングする新しい前処理ステップを提案する。
論文 参考訳(メタデータ) (2023-02-05T07:23:35Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Debiasing Neural Retrieval via In-batch Balancing Regularization [25.941718123899356]
我々は,nPRF上でのT-統計を有効活用し,公平性を向上させるために,識別可能なテキストトナー付きペアワイドランキングフェアネス(nPRF)を開発した。
nPRF を用いた手法は,ベースラインに比べてランク付け性能の低下が最小限に抑えられ,バイアスが大幅に低減される。
論文 参考訳(メタデータ) (2022-05-18T22:57:15Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in Regression Machine Learning Problems [46.93320580613236]
回帰問題に対する正規化(FaiReg)に基づく単純かつ効果的な手法を提案する。
データバランシングと敵対的トレーニングという,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減できる優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - Information-Theoretic Bias Reduction via Causal View of Spurious
Correlation [71.9123886505321]
本稿では,スプリアス相関の因果的解釈による情報理論バイアス測定手法を提案する。
本稿では,バイアス正規化損失を含むアルゴリズムバイアスに対する新しいデバイアスフレームワークを提案する。
提案したバイアス測定とデバイアス法は、多様な現実シナリオで検証される。
論文 参考訳(メタデータ) (2022-01-10T01:19:31Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。