論文の概要: Fairness under Competition
- arxiv url: http://arxiv.org/abs/2505.16291v1
- Date: Thu, 22 May 2025 06:43:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.092348
- Title: Fairness under Competition
- Title(参考訳): 競争における公正
- Authors: Ronen Gradwohl, Eilam Shapira, Moshe Tennenholtz,
- Abstract要約: 生態系の公平性の全体的なレベルに及ぼす公平な分類法の導入の影響を考察する。
競合する分類器が個別に公平であるとしても、生態系の結果は不公平である可能性があることを示す。
- 参考スコア(独自算出の注目度): 10.003345361182628
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic fairness has emerged as a central issue in ML, and it has become standard practice to adjust ML algorithms so that they will satisfy fairness requirements such as Equal Opportunity. In this paper we consider the effects of adopting such fair classifiers on the overall level of ecosystem fairness. Specifically, we introduce the study of fairness with competing firms, and demonstrate the failure of fair classifiers in yielding fair ecosystems. Our results quantify the loss of fairness in systems, under a variety of conditions, based on classifiers' correlation and the level of their data overlap. We show that even if competing classifiers are individually fair, the ecosystem's outcome may be unfair; and that adjusting biased algorithms to improve their individual fairness may lead to an overall decline in ecosystem fairness. In addition to these theoretical results, we also provide supporting experimental evidence. Together, our model and results provide a novel and essential call for action.
- Abstract(参考訳): アルゴリズムの公正性はMLの中心的な問題として現れており、同機会のような公正性要件を満たすようにMLアルゴリズムを調整するための標準的な慣行となっている。
本稿では,生態系の公平性に対する公平な分類法の導入の効果について考察する。
具体的には、競合する企業との公正性の研究を紹介し、公正な生態系の獲得における公平な分類者の失敗を実証する。
この結果は,分類器の相関とデータの重複度に基づいて,様々な条件下でのシステムにおける公平性の喪失を定量化する。
競合する分類器が個々に公平であるとしても、生態系の結果は不公平であり、偏りのあるアルゴリズムを調整して個々の公正性を改善することは、生態系の公正性の全体的な低下につながる可能性があることを示す。
これらの理論結果に加えて,実証的な証拠も提示する。
私たちのモデルと結果は共に、新しく不可欠な行動の呼びかけを提供します。
関連論文リスト
- DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - On Comparing Fair Classifiers under Data Bias [42.43344286660331]
本研究では,データ偏差の変化が公正分類器の精度と公平性に及ぼす影響について検討する。
我々の実験は、既存のフェアネスダッシュボードにデータバイアスリスクの尺度を統合する方法を示している。
論文 参考訳(メタデータ) (2023-02-12T13:04:46Z) - FaiREE: Fair Classification with Finite-Sample and Distribution-Free Guarantee [35.68504233140245]
FaiREE は群フェアネス制約を有限サンプルと分布自由な理論保証で満たす公平な分類アルゴリズムである。
FaiREEは最先端のアルゴリズムよりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-28T05:16:20Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - A Fair Empirical Risk Minimization with Generalized Entropy [4.535780433771325]
一般化エントロピーによって指定された公正性制約を伴う公正な経験的リスク最小化を考える。
公正な公正な分類問題が学べるかどうかを理論的に検討する。
論文 参考訳(メタデータ) (2022-02-24T09:11:45Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in Regression Machine Learning Problems [46.93320580613236]
回帰問題に対する正規化(FaiReg)に基づく単純かつ効果的な手法を提案する。
データバランシングと敵対的トレーニングという,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減できる優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。