論文の概要: Fairness May Backfire: When Leveling-Down Occurs in Fair Machine Learning
- arxiv url: http://arxiv.org/abs/2603.06901v1
- Date: Fri, 06 Mar 2026 21:38:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:13.388075
- Title: Fairness May Backfire: When Leveling-Down Occurs in Fair Machine Learning
- Title(参考訳): フェアネスのバックファイア:フェア機械学習におけるレベルダウンの失敗
- Authors: Yi Yang, Xiangyu Chang, Pei-yu Chen,
- Abstract要約: 属性認識型システムでは、フェアMLは必ずしも(弱く)不利なグループの結果を改善することが示される。
属性・ブラインド体制では、公正さは両方のグループの結果を同じ方向にシフトさせ、レベルアップまたはレベルダウンのいずれかにつながる。
この結果から,アルゴリズム的公正性を追求することで,グループの結果が向上する可能性が示唆された。
- 参考スコア(独自算出の注目度): 17.3262089857067
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As machine learning (ML) systems increasingly shape access to credit, jobs, and other opportunities, the fairness of algorithmic decisions has become a central concern. Yet it remains unclear when enforcing fairness constraints in these systems genuinely improves outcomes for affected groups or instead leads to "leveling down," making one or both groups worse off. We address this question in a unified, population-level (Bayes) framework for binary classification under prevalent group fairness notions. Our Bayes approach is distribution-free and algorithm-agnostic, isolating the intrinsic effect of fairness requirements from finite-sample noise and from training and intervention specifics. We analyze two deployment regimes for ML classifiers under common legal and governance constraints: attribute-aware decision-making (sensitive attributes available at decision time) and attribute-blind decision-making (sensitive attributes excluded from prediction). We show that, in the attribute-aware regime, fair ML necessarily (weakly) improves outcomes for the disadvantaged group and (weakly) worsens outcomes for the advantaged group. In contrast, in the attribute-blind regime, the impact of fairness is distribution-dependent: fairness can benefit or harm either group and may shift both groups' outcomes in the same direction, leading to either leveling up or leveling down. We characterize the conditions under which these patterns arise and highlight the role of "masked" candidates in driving them. Overall, our results provide structural guidance on when pursuing algorithmic fairness is likely to improve group outcomes and when it risks systemic leveling down, informing fair ML design and deployment choices.
- Abstract(参考訳): 機械学習(ML)システムが信用、仕事、その他の機会へのアクセスをますます形作るにつれて、アルゴリズムによる決定の公平性は中心的な関心事となっている。
しかし、これらのシステムにおいて公正性の制約を課すことが、本当の意味で影響のあるグループの結果を改善するのか、あるいは"レベルダウン"につながるのかは、はっきりしない。
我々はこの問題を、一般的な群フェアネスの概念の下で二項分類のための統一された集団レベル(ベイズ)フレームワークで解決する。
我々のベイズアプローチは、分布のないアルゴリズムに依存しないものであり、有限サンプルノイズと訓練と介入特異性から、公正性要求の本質的な効果を分離する。
我々は,ML分類器の2つのデプロイメント体制を,属性対応意思決定(決定時に利用できるセンシティブな属性)と属性盲の意思決定(予測から除外されるセンシティブな属性)の2つの法的な制約の下で分析する。
属性認識体制においては、フェアMLは必ずしも(弱く)不利なグループの結果を改善し、(弱く)有利なグループの結果を悪化させることが示される。
公平さはどちらのグループにも利益を与え、害を与え、両方のグループの結果を同じ方向にシフトさせ、レベルアップまたはレベルダウンをもたらす。
これらのパターンが生まれる条件を特徴付け、それらを駆動する上での"マスキーク"候補の役割を強調します。
全体として,アルゴリズムフェアネスの追求はグループの結果を改善する可能性が高く,体系的なレベルダウンのリスクがある場合,公正なML設計と展開の選択を通知する構造的ガイダンスを提供する。
関連論文リスト
- Fairness under Competition [8.497866040398053]
生態系の公平性の全体的なレベルに及ぼす公平な分類法の導入の影響を考察する。
競合する分類器が個別に公平であるとしても、生態系の結果は不公平である可能性があることを示す。
論文 参考訳(メタデータ) (2025-05-22T06:43:15Z) - Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - A Unified Post-Processing Framework for Group Fairness in Classification [10.615965454674901]
本稿では, グループフェアネスの基準である統計パリティ, 平等機会, 等化確率を1つの枠組みでカバーする, 公平分類のためのポストプロセッシングアルゴリズムを提案する。
我々のアルゴリズムは「LinearPost」と呼ばれ、(不公平な)ベース予測器の予測を、(予測された)グループメンバーシップの重み付けによる「公正リスク」で線形変換することで、公正なポストホックを実現する。
論文 参考訳(メタデータ) (2024-05-07T05:58:44Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。