論文の概要: Fair Federated Learning via Bounded Group Loss
- arxiv url: http://arxiv.org/abs/2203.10190v3
- Date: Thu, 13 Oct 2022 03:57:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 15:44:37.975675
- Title: Fair Federated Learning via Bounded Group Loss
- Title(参考訳): 有界群損失によるフェアフェデレーション学習
- Authors: Shengyuan Hu, Zhiwei Steven Wu, Virginia Smith
- Abstract要約: 本稿では,実証的公正なフェデレーション学習のための一般的なフレームワークを提案する。
我々は、有界群損失の概念を、群フェアネスに対する理論的に基底的なアプローチとして拡張する。
提案手法の収束保証と結果の正当性保証を提供する。
- 参考スコア(独自算出の注目度): 37.72259706322158
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fair prediction across protected groups is an important constraint for many
federated learning applications. However, prior work studying group fair
federated learning lacks formal convergence or fairness guarantees. In this
work we propose a general framework for provably fair federated learning. In
particular, we explore and extend the notion of Bounded Group Loss as a
theoretically-grounded approach for group fairness. Using this setup, we
propose a scalable federated optimization method that optimizes the empirical
risk under a number of group fairness constraints. We provide convergence
guarantees for the method as well as fairness guarantees for the resulting
solution. Empirically, we evaluate our method across common benchmarks from
fair ML and federated learning, showing that it can provide both fairer and
more accurate predictions than baseline approaches.
- Abstract(参考訳): 保護されたグループ間の公正な予測は多くの連合学習アプリケーションにとって重要な制約である。
しかしながら、グループフェアフェデレーション学習の先行研究には、形式的な収束や公平性の保証が欠けている。
本研究では,フェデレート学習のための一般的なフレームワークを提案する。
特に,グループフェアネスの理論的なアプローチとして,境界群損失の概念を探求し,拡張する。
この設定を用いて,グループフェアネス制約の下で経験的リスクを最適化するスケーラブルなフェデレーション最適化手法を提案する。
本稿では,本手法に対する収束保証と,得られた解に対する公平性保証を提供する。
経験的に,fair mlとfederated learningの共通ベンチマークをまたいだ評価を行い,ベースラインアプローチよりも公平かつ正確な予測を可能にすることを示した。
関連論文リスト
- Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - Distribution-Free Fair Federated Learning with Small Samples [54.63321245634712]
FedFaiREEは、分散化された環境で分散のないフェアラーニングのために小さなサンプルで開発された後処理アルゴリズムである。
公正性と精度の両面において厳密な理論的保証を提供し,実験結果により,提案手法の堅牢な実証検証を行う。
論文 参考訳(メタデータ) (2024-02-25T17:37:53Z) - Federated Fairness without Access to Sensitive Groups [12.888927461513472]
連合学習におけるグループフェアネスへの現在のアプローチは、トレーニング中に事前に定義されラベル付けされたセンシティブなグループが存在することを前提としている。
我々は、センシティブなグループや追加のラベルの事前定義された定義に依存しないグループフェアネスを保証するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-22T19:24:59Z) - Relaxed Contrastive Learning for Federated Learning [48.96253206661268]
本稿では,フェデレート学習におけるデータ不均一性の課題に対処する,新しいコントラスト学習フレームワークを提案する。
当社のフレームワークは,既存のフェデレート学習アプローチを,標準ベンチマークにおいて大きなマージンで上回ります。
論文 参考訳(メタデータ) (2024-01-10T04:55:24Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - FaiREE: Fair Classification with Finite-Sample and Distribution-Free
Guarantee [40.10641140860374]
FaiREE は群フェアネス制約を有限サンプルと分布自由な理論保証で満たす公平な分類アルゴリズムである。
FaiREEは最先端のアルゴリズムよりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-28T05:16:20Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Minimax Demographic Group Fairness in Federated Learning [23.1988909029387]
フェデレートラーニング(Federated Learning)は、多数のエンティティが協調してより良いモデルを学ぶことを可能にする、ますます人気のあるパラダイムである。
異なる参加団体がトレーニング期間中に集団のサブセットにのみアクセス可能な,連合学習シナリオにおけるミニマックスグループフェアネスについて検討した。
我々は,様々なフェデレート学習環境におけるグループフェアネスの観点から,他の最先端手法に対する提案手法を実験的に比較した。
論文 参考訳(メタデータ) (2022-01-20T17:13:54Z) - Federating for Learning Group Fair Models [19.99325961328706]
フェデレートラーニング(Federated Learning)は、多数のエンティティが協調してより良いモデルを学ぶことを可能にする、ますます人気のあるパラダイムである。
本研究は,学習段階において,異なる参加者が集団のサブセットにしかアクセスできないパラダイムにおけるminmaxグループフェアネスについて検討する。
論文 参考訳(メタデータ) (2021-10-05T12:42:43Z) - Robust Optimization for Fairness with Noisy Protected Groups [85.13255550021495]
ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
論文 参考訳(メタデータ) (2020-02-21T14:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。