論文の概要: FairFed: Enabling Group Fairness in Federated Learning
- arxiv url: http://arxiv.org/abs/2110.00857v1
- Date: Sat, 2 Oct 2021 17:55:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-06 09:46:42.277137
- Title: FairFed: Enabling Group Fairness in Federated Learning
- Title(参考訳): FairFed: フェデレーション学習におけるグループフェアネスの実現
- Authors: Yahya H. Ezzeldin, Shen Yan, Chaoyang He, Emilio Ferrara, Salman
Avestimehr
- Abstract要約: フェデレーテッド・ラーニングは、複数のパーティで機械学習モデルを学習するための有望なソリューションと見なされている。
フェアネスを意識したアグリゲーション手法によりグループフェアネスを高める新しいアルゴリズムであるFairFedを提案する。
提案手法は,高度の不均一な属性分布の下で,最先端の公正な学習フレームワークよりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 22.913999279079878
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning becomes increasingly incorporated in crucial
decision-making scenarios such as healthcare, recruitment, and loan assessment,
there have been increasing concerns about the privacy and fairness of such
systems. Federated learning has been viewed as a promising solution for
collaboratively learning machine learning models among multiple parties while
maintaining the privacy of their local data. However, federated learning also
poses new challenges in mitigating the potential bias against certain
populations (e.g., demographic groups), which typically requires centralized
access to the sensitive information (e.g., race, gender) of each data point.
Motivated by the importance and challenges of group fairness in federated
learning, in this work, we propose FairFed, a novel algorithm to enhance group
fairness via a fairness-aware aggregation method, aiming to provide fair model
performance across different sensitive groups (e.g., racial, gender groups)
while maintaining high utility. The formulation can potentially provide more
flexibility in the customized local debiasing strategies for each client. When
running federated training on two widely investigated fairness datasets, Adult
and COMPAS, our proposed method outperforms the state-of-the-art fair federated
learning frameworks under a high heterogeneous sensitive attribute
distribution.
- Abstract(参考訳): 医療、採用、ローン評価といった重要な意思決定シナリオに機械学習が組み込まれていくにつれ、そのようなシステムのプライバシーと公正性に対する懸念が高まっている。
フェデレーション学習は、ローカルデータのプライバシを維持しながら、複数のパーティ間で機械学習モデルを共同学習するための有望なソリューションと見なされている。
しかし、連合学習はまた、特定の集団(例えば人口集団)に対する潜在的なバイアスを緩和するためには、通常、各データポイントのセンシティブな情報(例えば、人種、性別)に集中的にアクセスする必要がある、という新たな課題を生じさせる。
本研究では,連合学習におけるグループフェアネスの重要性と課題に動機づけられ,フェアネス・アウェア・アグリゲーション(fairness-aware aggregate)法によるグループフェアネス向上のための新しいアルゴリズムであるfairfedを提案する。
この定式化は、各クライアントのカスタマイズされたローカルデバイアス戦略において、より柔軟性を提供する可能性がある。
提案手法は,広く研究されている2つのフェアネスデータセットであるアダルトとCompAS上でのフェデレーショントレーニングを行う場合,高いヘテロジニアスな属性分布の下で,最先端のフェデレーション学習フレームワークよりも優れた性能を発揮する。
関連論文リスト
- From Optimization to Generalization: Fair Federated Learning against Quality Shift via Inter-Client Sharpness Matching [10.736121438623003]
フェデレートラーニングは、分散化された医療データでディープニューラルネットワークをトレーニングするための重要なアプローチとして認識されている。
実際には、様々な施設で一貫した画像品質を確保することは困難である。
この画像品質の不均衡は、フェデレートされたモデルが高品質な画像に対して固有のバイアスを生じさせる可能性がある。
論文 参考訳(メタデータ) (2024-04-27T07:05:41Z) - Distribution-Free Fair Federated Learning with Small Samples [54.63321245634712]
FedFaiREEは、分散化された環境で分散のないフェアラーニングのために小さなサンプルで開発された後処理アルゴリズムである。
公正性と精度の両面において厳密な理論的保証を提供し,実験結果により,提案手法の堅牢な実証検証を行う。
論文 参考訳(メタデータ) (2024-02-25T17:37:53Z) - Dynamic Fair Federated Learning Based on Reinforcement Learning [19.033986978896074]
フェデレートラーニングは、ローカルデータサンプルを共有することなく、デバイスのグループ間でグローバルモデルの協調トレーニングと最適化を可能にする。
DQFFLと呼ばれる強化学習を伴う動的qフェアネスフェデレーション学習アルゴリズムを提案する。
我々のDQFFLは、全体的な性能、公平性、収束速度において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-11-02T03:05:40Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - FAIR-FATE: Fair Federated Learning with Momentum [0.41998444721319217]
本研究では,グループフェアネスの達成を目的としたFAIRフェデレート学習アルゴリズムを提案する。
我々の知る限りでは、公正なモメンタム推定を用いて公平性を達成することを目的とした機械学習における最初のアプローチである。
実世界のデータセットに対する実験結果から、FAIR-FATEは最先端のフェデレート学習アルゴリズムよりも優れています。
論文 参考訳(メタデータ) (2022-09-27T20:33:38Z) - FairVFL: A Fair Vertical Federated Learning Framework with Contrastive
Adversarial Learning [102.92349569788028]
本稿では,VFLモデルの公平性を改善するために,FairVFL( Fair vertical federated learning framework)を提案する。
FairVFLの中核となる考え方は、分散化された機能フィールドに基づいたサンプルの統一的で公正な表現を、プライバシ保護の方法で学習することである。
ユーザのプライバシ保護のために,サーバ内の統一表現からプライベート情報を除去する対向学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-07T11:43:32Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Unified Group Fairness on Federated Learning [22.143427873780404]
フェデレートラーニング(FL)は、グローバルモデルが分散クライアントのプライベートデータに基づいてトレーニングされる、重要な機械学習パラダイムとして登場した。
近年の研究では、顧客間の公平性に焦点が当てられているが、センシティブな属性(例えば、性別や人種)によって形成される異なるグループに対する公正性は無視されている。
本稿では,G-DRFA (Group Distributionally Robust Federated Averaging) と呼ばれる新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-09T08:21:38Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。