論文の概要: Mitigating Group Bias in Federated Learning: Beyond Local Fairness
- arxiv url: http://arxiv.org/abs/2305.09931v1
- Date: Wed, 17 May 2023 03:28:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 17:32:55.286869
- Title: Mitigating Group Bias in Federated Learning: Beyond Local Fairness
- Title(参考訳): フェデレーション学習におけるグループバイアスの軽減--地域公平を超えて
- Authors: Ganghua Wang, Ali Payani, Myungjin Lee, Ramana Kompella
- Abstract要約: 本研究では,グローバルモデルフェアネスと局所モデルフェアネスの関係について検討する。
本稿では, ペナル化された経験的損失を直接最小化する, グローバルフェアトレーニングアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.6882042556551609
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The issue of group fairness in machine learning models, where certain
sub-populations or groups are favored over others, has been recognized for some
time. While many mitigation strategies have been proposed in centralized
learning, many of these methods are not directly applicable in federated
learning, where data is privately stored on multiple clients. To address this,
many proposals try to mitigate bias at the level of clients before aggregation,
which we call locally fair training. However, the effectiveness of these
approaches is not well understood. In this work, we investigate the theoretical
foundation of locally fair training by studying the relationship between global
model fairness and local model fairness. Additionally, we prove that for a
broad class of fairness metrics, the global model's fairness can be obtained
using only summary statistics from local clients. Based on that, we propose a
globally fair training algorithm that directly minimizes the penalized
empirical loss. Real-data experiments demonstrate the promising performance of
our proposed approach for enhancing fairness while retaining high accuracy
compared to locally fair training methods.
- Abstract(参考訳): 機械学習モデルにおいて、特定のサブ人口やグループが他よりも好まれるグループフェアネスの問題は、しばらくの間認識されてきた。
集中学習では多くの緩和戦略が提案されているが、これらの手法の多くは、データが複数のクライアントにプライベートに保存されるフェデレーション学習では直接適用できない。
これを解決するために、多くの提案は集約の前にクライアントのレベルでバイアスを緩和しようとします。
しかし、これらのアプローチの有効性はよく分かっていない。
本研究では,グローバルモデルフェアネスとローカルモデルフェアネスの関係を研究することにより,ローカルフェアトレーニングの理論的基礎について検討する。
さらに,広域の公正度測定値に対して,グローバルモデルの公正度は,ローカルクライアントの要約統計値のみを用いて得られることを示す。
そこで本研究では,罰則化された経験損失を直接最小化する,グローバルフェアトレーニングアルゴリズムを提案する。
実データ実験は,局所的公正訓練法と比較して精度を高く保ちながら公平性を高めるための提案手法の有望な性能を示す。
関連論文リスト
- Distribution-Free Fair Federated Learning with Small Samples [54.63321245634712]
FedFaiREEは、分散化された環境で分散のないフェアラーニングのために小さなサンプルで開発された後処理アルゴリズムである。
公正性と精度の両面において厳密な理論的保証を提供し,実験結果により,提案手法の堅牢な実証検証を行う。
論文 参考訳(メタデータ) (2024-02-25T17:37:53Z) - GLOCALFAIR: Jointly Improving Global and Local Group Fairness in Federated Learning [8.033939709734451]
フェデレートラーニング(FL)は、データプライバシを犠牲にすることなく、クライアント間で共有モデルを共同で学習するための、将来的なソリューションとして登場した。
FLは、データの不均一性やパーティーの選択など、固有のFL特性のために、特定の人口集団に対してバイアスを受ける傾向にある。
クライアントのプライベートデータセットに関する詳細な統計を必要とせずに,グローバルおよびローカルグループフェアネスを改善するクライアントサーバのコードサインであるGFAIRを提案する。
論文 参考訳(メタデータ) (2024-01-07T18:10:14Z) - Exploring Vacant Classes in Label-Skewed Federated Learning [113.65301899666645]
クライアント間の局所的なラベル分布の相違を特徴とするラベルスキューは、連合学習において大きな課題となる。
本稿では, ラベルスキュード・フェデレート学習における新しい手法であるFedVLSについて紹介する。
論文 参考訳(メタデータ) (2024-01-04T16:06:31Z) - Multi-dimensional Fair Federated Learning [25.07463977553212]
フェデレートラーニング(FL)は、分散データからモデルをトレーニングするための、有望な協調的でセキュアなパラダイムとして登場した。
群フェアネスとクライアントフェアネスは、FLにとって重要である2次元のフェアネスである。
グループフェアネスとクライアントフェアネスを同時に達成するために,mFairFLと呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2023-12-09T11:37:30Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - FAIR-FATE: Fair Federated Learning with Momentum [0.41998444721319217]
本研究では,グループフェアネスの達成を目的としたFAIRフェデレート学習アルゴリズムを提案する。
我々の知る限りでは、公正なモメンタム推定を用いて公平性を達成することを目的とした機械学習における最初のアプローチである。
実世界のデータセットに対する実験結果から、FAIR-FATEは最先端のフェデレート学習アルゴリズムよりも優れています。
論文 参考訳(メタデータ) (2022-09-27T20:33:38Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Unified Group Fairness on Federated Learning [22.143427873780404]
フェデレートラーニング(FL)は、グローバルモデルが分散クライアントのプライベートデータに基づいてトレーニングされる、重要な機械学習パラダイムとして登場した。
近年の研究では、顧客間の公平性に焦点が当てられているが、センシティブな属性(例えば、性別や人種)によって形成される異なるグループに対する公正性は無視されている。
本稿では,G-DRFA (Group Distributionally Robust Federated Averaging) と呼ばれる新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-09T08:21:38Z) - FairFed: Enabling Group Fairness in Federated Learning [22.913999279079878]
フェデレーテッド・ラーニングは、複数のパーティで機械学習モデルを学習するための有望なソリューションと見なされている。
フェアネスを意識したアグリゲーション手法によりグループフェアネスを高める新しいアルゴリズムであるFairFedを提案する。
提案手法は,高度の不均一な属性分布の下で,最先端の公正な学習フレームワークよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-02T17:55:20Z) - Fairness-aware Class Imbalanced Learning [57.45784950421179]
つぶやきの感情と職業分類のロングテール学習手法を評価する。
フェアネスを強制する手法により、マージンロスに基づくアプローチを拡張します。
論文 参考訳(メタデータ) (2021-09-21T22:16:30Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。