論文の概要: Software Fairness Dilemma: Is Bias Mitigation a Zero-Sum Game?
- arxiv url: http://arxiv.org/abs/2508.03323v1
- Date: Tue, 05 Aug 2025 11:05:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.925007
- Title: Software Fairness Dilemma: Is Bias Mitigation a Zero-Sum Game?
- Title(参考訳): ソフトウェアフェアネスのジレンマ:バイアスはゼロサムゲームか?
- Authors: Zhenpeng Chen, Xinyue Li, Jie M. Zhang, Weisong Sun, Ying Xiao, Tianlin Li, Yiling Lou, Yang Liu,
- Abstract要約: フェアネスは機械学習(ML)ソフトウェアにとって重要な要件である。
これまでの研究では、コンピュータビジョンと自然言語処理タスクに対するバイアス軽減のレベルダウン効果が特定されている。
- 参考スコア(独自算出の注目度): 20.47795550485293
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness is a critical requirement for Machine Learning (ML) software, driving the development of numerous bias mitigation methods. Previous research has identified a leveling-down effect in bias mitigation for computer vision and natural language processing tasks, where fairness is achieved by lowering performance for all groups without benefiting the unprivileged group. However, it remains unclear whether this effect applies to bias mitigation for tabular data tasks, a key area in fairness research with significant real-world applications. This study evaluates eight bias mitigation methods for tabular data, including both widely used and cutting-edge approaches, across 44 tasks using five real-world datasets and four common ML models. Contrary to earlier findings, our results show that these methods operate in a zero-sum fashion, where improvements for unprivileged groups are related to reduced benefits for traditionally privileged groups. However, previous research indicates that the perception of a zero-sum trade-off might complicate the broader adoption of fairness policies. To explore alternatives, we investigate an approach that applies the state-of-the-art bias mitigation method solely to unprivileged groups, showing potential to enhance benefits of unprivileged groups without negatively affecting privileged groups or overall ML performance. Our study highlights potential pathways for achieving fairness improvements without zero-sum trade-offs, which could help advance the adoption of bias mitigation methods.
- Abstract(参考訳): フェアネスは機械学習(ML)ソフトウェアにとって重要な要件であり、数多くのバイアス軽減手法の開発を推進している。
従来の研究では、コンピュータビジョンや自然言語処理タスクにおけるバイアス軽減のレベルダウン効果が特定されており、未成年グループに利益を与えずに、全てのグループのパフォーマンスを低下させることによって公平性が達成されている。
しかし、この効果が表型データタスクのバイアス軽減に当てはまるかどうかは不明である。
本研究は,5つの実世界のデータセットと4つの共通MLモデルを用いて,44のタスクにまたがって,広く使用されている手法と最先端手法の両方を含む,表型データに対する8つのバイアス緩和手法を評価する。
以上の結果とは対照的に,従来の特権集団の利益の低減と非特権集団の改善が結びついているゼロサム方式の手法が提案されている。
しかし、これまでの研究では、ゼロサムトレードオフの認識が公正政策の広範な採用を複雑にしている可能性が示唆されている。
提案手法は,非特権グループのみに適用し,特権グループやML全体のパフォーマンスに悪影響を及ぼすことなく,非特権グループの利益を高める可能性を示す。
本研究は, ゼロサムトレードオフを伴わずに公平性向上を実現するための潜在的経路を強調し, バイアス緩和手法の採用を推し進めるものである。
関連論文リスト
- Fairness Mediator: Neutralize Stereotype Associations to Mitigate Bias in Large Language Models [66.5536396328527]
LLMは必然的にトレーニングデータから急激な相関関係を吸収し、偏りのある概念と特定の社会的グループの間のステレオタイプ的関連をもたらす。
ステレオタイプアソシエーションを中和するバイアス緩和フレームワークであるFairness Mediator (FairMed)を提案する。
本フレームワークは, ステレオタイプアソシエーションプローバーと, 対向型デバイアス中和剤の2つの主成分からなる。
論文 参考訳(メタデータ) (2025-04-10T14:23:06Z) - Towards Harmless Rawlsian Fairness Regardless of Demographic Prior [57.30787578956235]
トレーニングセットに事前の人口統計が提供されない場合に,有効性を損なうことなく公平性を達成する可能性を探る。
本稿では,経験的損失の最適セット内でのトレーニング損失の分散を最小限に抑えるため,VFairという簡単な手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T12:40:34Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Fairpriori: Improving Biased Subgroup Discovery for Deep Neural Network Fairness [21.439820064223877]
本稿では,新しいバイアス付きサブグループ発見法であるFairprioriを紹介する。
このアルゴリズムは、交差点バイアスの効率的かつ効率的な調査を容易にするために、頻繁なアイテムセット生成アルゴリズムを組み込んでいる。
フェアプリオリは交叉バイアスを特定する際に優れた効果と効率を示す。
論文 参考訳(メタデータ) (2024-06-25T00:15:13Z) - AIM: Attributing, Interpreting, Mitigating Data Unfairness [40.351282126410545]
既存の公正機械学習(FairML)の研究は、モデル予測における差別バイアスの軽減に重点を置いている。
トレーニングデータからバイアスや偏見を反映したサンプルの発見という,新たな研究課題について検討する。
サンプルバイアスの測定と対策のための実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-13T05:21:10Z) - Mitigating Group Bias in Federated Learning: Beyond Local Fairness [0.6882042556551609]
本研究では,グローバルモデルフェアネスと局所モデルフェアネスの関係について検討する。
本稿では, ペナル化された経験的損失を直接最小化する, グローバルフェアトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-17T03:28:19Z) - On Comparing Fair Classifiers under Data Bias [42.43344286660331]
本研究では,データ偏差の変化が公正分類器の精度と公平性に及ぼす影響について検討する。
我々の実験は、既存のフェアネスダッシュボードにデータバイアスリスクの尺度を統合する方法を示している。
論文 参考訳(メタデータ) (2023-02-12T13:04:46Z) - Cascaded Debiasing: Studying the Cumulative Effect of Multiple
Fairness-Enhancing Interventions [48.98659895355356]
本稿では機械学習(ML)パイプラインの異なる段階における多重公正強化介入の累積効果について検討する。
複数の介入を適用すると、集約に対する個々の介入よりも公平性と実用性が向上する。
マイナス面として、公平性向上の介入は異なる集団、特に特権集団に悪影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-02-08T09:20:58Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Fairness-aware Class Imbalanced Learning [57.45784950421179]
つぶやきの感情と職業分類のロングテール学習手法を評価する。
フェアネスを強制する手法により、マージンロスに基づくアプローチを拡張します。
論文 参考訳(メタデータ) (2021-09-21T22:16:30Z) - Unsupervised Learning of Debiased Representations with Pseudo-Attributes [85.5691102676175]
教師なし方式で,単純かつ効果的な脱バイアス手法を提案する。
特徴埋め込み空間上でクラスタリングを行い、クラスタリング結果を利用して疑似属性を識別する。
次に,非偏り表現を学習するために,クラスタベースの新しい重み付け手法を用いる。
論文 参考訳(メタデータ) (2021-08-06T05:20:46Z) - Bias-Tolerant Fair Classification [20.973916494320246]
ラベルバイアスと選択バイアスは、機械学習の結果の公平性を妨げるデータにおける2つの理由である。
本稿では,ラベルバイアスと選択バイアスの影響を受けるデータを用いて,利益を回復しようとするBias-TolerantFAirRegularizedLoss (B-FARL)を提案する。
B-FARLはバイアスデータを入力として取り、公正だが潜伏的なデータで訓練されたデータを近似したモデルを呼び出す。
論文 参考訳(メタデータ) (2021-07-07T13:31:38Z) - Recovering from Biased Data: Can Fairness Constraints Improve Accuracy? [11.435833538081557]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、バイアスがあるだけでなく、真のデータ分布に最適な精度を持つ分類器を生成する。
公平性に制約されたERMによるこの問題の是正能力について検討する。
また、トレーニングデータの再重み付け、等化オッド、復号化パリティなど、他のリカバリ手法についても検討する。
論文 参考訳(メタデータ) (2019-12-02T22:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。