論文の概要: Minimax Group Fairness: Algorithms and Experiments
- arxiv url: http://arxiv.org/abs/2011.03108v2
- Date: Mon, 8 Mar 2021 01:19:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 12:35:04.956019
- Title: Minimax Group Fairness: Algorithms and Experiments
- Title(参考訳): Minimax Group Fairness:アルゴリズムと実験
- Authors: Emily Diana, Wesley Gill, Michael Kearns, Krishnaram Kenthapadi, and
Aaron Roth
- Abstract要約: 我々は,極小群フェアネスのための有意収束性オラクル効率学習アルゴリズムを提供する。
我々のアルゴリズムは回帰と分類の両方に当てはまる。
ミニマックスフェアネスが厳密で、平等な結果の概念よりも強く好ましい経験的ケースを示す。
- 参考スコア(独自算出の注目度): 18.561824632836405
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a recently introduced framework in which fairness is measured by
worst-case outcomes across groups, rather than by the more standard differences
between group outcomes. In this framework we provide provably convergent
oracle-efficient learning algorithms (or equivalently, reductions to non-fair
learning) for minimax group fairness. Here the goal is that of minimizing the
maximum loss across all groups, rather than equalizing group losses. Our
algorithms apply to both regression and classification settings and support
both overall error and false positive or false negative rates as the fairness
measure of interest. They also support relaxations of the fairness constraints,
thus permitting study of the tradeoff between overall accuracy and minimax
fairness. We compare the experimental behavior and performance of our
algorithms across a variety of fairness-sensitive data sets and show empirical
cases in which minimax fairness is strictly and strongly preferable to equal
outcome notions.
- Abstract(参考訳): 最近導入されたフレームワークでは、グループの成果間のより標準的な違いではなく、グループ間の最悪の結果によって公平性が測定される。
このフレームワークでは、最小値群フェアネスに対して、確実に収束するオラクル効率の学習アルゴリズム(または同等に、非フェアラーニングへの還元)を提供する。
ここでのゴールは、グループ損失を等化するのではなく、すべてのグループにおける最大損失を最小限にすることである。
我々のアルゴリズムは回帰と分類の設定の両方に適用し、全体の誤りと偽陽性または偽陰性率の両方を利害の公正度尺度としてサポートする。
また、フェアネス制約の緩和もサポートし、全体的な精度とミニマックスフェアネスの間のトレードオフの研究を可能にした。
我々は,様々なフェアネスに敏感なデータセットに対して,アルゴリズムの実験的挙動と性能を比較し,ミニマックスフェアネスが厳密で,平等な結果概念に好適である経験的事例を示す。
関連論文リスト
- Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - Minimax Optimal Fair Classification with Bounded Demographic Disparity [28.936244976415484]
本稿では,2つの保護群による公正二項分類の統計的基礎について考察する。
有限サンプルを用いると、グループ固有の受容閾値を推定する必要があるため、追加のコストが発生することを示す。
オフセットを持つグループワイドしきい値法であるFairBayes-DDP+を提案する。
論文 参考訳(メタデータ) (2024-03-27T02:59:04Z) - How does promoting the minority fraction affect generalization? A theoretical study of the one-hidden-layer neural network on group imbalance [64.1656365676171]
グループ不均衡は経験的リスク最小化において既知の問題である。
本稿では,個々の集団がサンプルの複雑さ,収束率,平均および群レベルの試験性能に与える影響を定量化する。
論文 参考訳(メタデータ) (2024-03-12T04:38:05Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Fair Without Leveling Down: A New Intersectional Fairness Definition [1.0958014189747356]
本稿では,感性グループ間での絶対値と相対値のパフォーマンスを組み合わせた$alpha$-Intersectional Fairnessという新たな定義を提案する。
我々は、新しいフェアネス定義を用いて、複数の一般的なプロセス内機械学習アプローチをベンチマークし、単純なベースラインよりも改善が得られないことを示します。
論文 参考訳(メタデータ) (2023-05-21T16:15:12Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Lexicographically Fair Learning: Algorithms and Generalization [13.023987750303856]
lexifairnessは、全てのminimaxフェアソリューションの中で、2番目に高いエラーを持つグループのエラーを最小化すべきだと要求する。
私たちは、非常に一般的な設定で約lexifairソリューションを見つけるためのオラクル効率の高いアルゴリズムを導き出します。
論文 参考訳(メタデータ) (2021-02-16T21:15:42Z) - Metric-Free Individual Fairness with Cooperative Contextual Bandits [17.985752744098267]
グループフェアネスは、グループ内の一部の個人に対して不公平であるように、異なるグループが同様に扱われるべきである。
個々の公正性は、問題固有の類似度指標に依存するため、まだ検討されていない。
本研究では,メトリックフリーな個人フェアネスと協調的文脈帯域幅アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-13T03:10:35Z) - Robust Optimization for Fairness with Noisy Protected Groups [85.13255550021495]
ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
論文 参考訳(メタデータ) (2020-02-21T14:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。