論文の概要: Robust Optimization for Fairness with Noisy Protected Groups
- arxiv url: http://arxiv.org/abs/2002.09343v3
- Date: Tue, 10 Nov 2020 05:37:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 00:44:14.383668
- Title: Robust Optimization for Fairness with Noisy Protected Groups
- Title(参考訳): 雑音保護群をもつフェアネスに対するロバスト最適化
- Authors: Serena Wang, Wenshuo Guo, Harikrishna Narasimhan, Andrew Cotter, Maya
Gupta, Michael I. Jordan
- Abstract要約: ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
- 参考スコア(独自算出の注目度): 85.13255550021495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many existing fairness criteria for machine learning involve equalizing some
metric across protected groups such as race or gender. However, practitioners
trying to audit or enforce such group-based criteria can easily face the
problem of noisy or biased protected group information. First, we study the
consequences of naively relying on noisy protected group labels: we provide an
upper bound on the fairness violations on the true groups G when the fairness
criteria are satisfied on noisy groups $\hat{G}$. Second, we introduce two new
approaches using robust optimization that, unlike the naive approach of only
relying on $\hat{G}$, are guaranteed to satisfy fairness criteria on the true
protected groups G while minimizing a training objective. We provide
theoretical guarantees that one such approach converges to an optimal feasible
solution. Using two case studies, we show empirically that the robust
approaches achieve better true group fairness guarantees than the naive
approach.
- Abstract(参考訳): 機械学習の多くの既存の公正基準は、人種や性別などの保護されたグループ間での指標の等化を含む。
しかしながら、そのようなグループベースの基準を監査または強制しようとする実践者は、ノイズや偏りのある保護されたグループ情報の問題に容易に直面することができる。
まず、ノイズ保護されたグループラベルを無言で頼りにした結果について検討する。 真のグループ g の公正性違反に対して、公正性基準がうるさいグループに対して$\hat{g}$ を満たす場合に上限を与える。
第2に,ロバスト最適化を用いた2つの新しいアプローチを導入する。$\hat{g}$のみに依存するナイーブなアプローチとは異なり,トレーニング対象を最小化しつつ,真の保護グループgの公平性基準を満たすことが保証される。
このようなアプローチが最適実現可能な解に収束することを理論的に保証する。
2つのケーススタディを用いて、ロバストなアプローチが、ナイーブなアプローチよりも優れた真の集団公平性を保証することを実証的に示す。
関連論文リスト
- Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - Federated Fairness without Access to Sensitive Groups [12.888927461513472]
連合学習におけるグループフェアネスへの現在のアプローチは、トレーニング中に事前に定義されラベル付けされたセンシティブなグループが存在することを前提としている。
我々は、センシティブなグループや追加のラベルの事前定義された定義に依存しないグループフェアネスを保証するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-22T19:24:59Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Auditing Predictive Models for Intersectional Biases [1.9346186297861747]
Conditional Bias Scan (CBS)は、分類モデルにおける交差バイアスを検出するフレキシブル監査フレームワークである。
CBSは、保護されていないクラスの同等のサブグループと比較して、保護されたクラスに対して最も重要なバイアスがあるサブグループを特定している。
本手法は,CompAS前リスクアセスメントツールにおいて,未同定の交差点バイアスとコンテキストバイアスを検出できることを示す。
論文 参考訳(メタデータ) (2023-06-22T17:32:12Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Distributionally Robust Optimization with Probabilistic Group [24.22720998340643]
分散ロバストな最適化のための新しいフレームワークPG-DROを提案する。
私たちのフレームワークの鍵は、ハードグループアノテーションではなく、ソフトグループメンバシップです。
本フレームワークは,グループメンバシップの曖昧さに対処し,従来の技術よりも柔軟性と汎用性を提供する。
論文 参考訳(メタデータ) (2023-03-10T09:31:44Z) - Re-weighting Based Group Fairness Regularization via Classwise Robust
Optimization [30.089819400033985]
そこで本研究では,グループフェアネス尺度を学習目標に組み込むことにより,この2つの学習手法を統一する原理的手法を提案する。
我々は,各グループに対して適切な再重み付けを自動的に生成することにより,結果の目的を最小化する反復最適化アルゴリズムを開発した。
実験の結果,FairDROはスケーラブルで,多様なアプリケーションに容易に適用可能であることがわかった。
論文 参考訳(メタデータ) (2023-03-01T12:00:37Z) - Just Train Twice: Improving Group Robustness without Training Group
Information [101.84574184298006]
経験的リスク最小化による標準トレーニングは、特定のグループにおける平均的かつ低い精度で高い精度を達成するモデルを生成することができる。
群分布的ロバストな最適化 (group DRO) のような、最悪のグループ精度を達成する以前のアプローチでは、トレーニングポイントごとに高価なグループアノテーションが必要である。
本稿では,複数のエポックに対して標準的なERMモデルを訓練し,第1モデルが誤分類したトレーニング例を重み付けする第2モデルを訓練する,単純な2段階のアプローチであるJTTを提案する。
論文 参考訳(メタデータ) (2021-07-19T17:52:32Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。