論文の概要: Post-Fair Federated Learning: Achieving Group and Community Fairness in Federated Learning via Post-processing
- arxiv url: http://arxiv.org/abs/2405.17782v1
- Date: Tue, 28 May 2024 03:26:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 22:32:09.509664
- Title: Post-Fair Federated Learning: Achieving Group and Community Fairness in Federated Learning via Post-processing
- Title(参考訳): フェール後のフェールラーニング:ポストプロセッシングによるフェールラーニングにおけるグループとコミュニティフェアネスの獲得
- Authors: Yuying Duan, Yijun Tian, Nitesh Chawla, Michael Lemmon,
- Abstract要約: フェアネスという概念は、グループフェアネスとコミュニティフェアネスという、連合学習の重要な問題として現れてきた。
本稿では,ポストFFL(Post-FFL)と呼ばれる,処理後のフェアフェデレーション学習フレームワークを提案し,分析する。
- 参考スコア(独自算出の注目度): 2.361519691494246
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) is a distributed machine learning framework in which a set of local communities collaboratively learn a shared global model while retaining all training data locally within each community. Two notions of fairness have recently emerged as important issues for federated learning: group fairness and community fairness. Group fairness requires that a model's decisions do not favor any particular group based on a set of legally protected attributes such as race or gender. Community fairness requires that global models exhibit similar levels of performance (accuracy) across all collaborating communities. Both fairness concepts can coexist within an FL framework, but the existing literature has focused on either one concept or the other. This paper proposes and analyzes a post-processing fair federated learning (FFL) framework called post-FFL. Post-FFL uses a linear program to simultaneously enforce group and community fairness while maximizing the utility of the global model. Because Post-FFL is a post-processing approach, it can be used with existing FL training pipelines whose convergence properties are well understood. This paper uses post-FFL on real-world datasets to mimic how hospital networks, for example, use federated learning to deliver community health care. Theoretical results bound the accuracy lost when post-FFL enforces both notion of fairness. Experimental results illustrate that post-FFL simultaneously improves both group and community fairness in FL. Moreover, post-FFL outperforms the existing in-processing fair federated learning in terms of improving both notions of fairness, communication efficiency and computation cost.
- Abstract(参考訳): Federated Learning(FL)は、地域コミュニティの集合が共同で共有グローバルモデルを学習し、各コミュニティ内ですべてのトレーニングデータをローカルに保持する分散機械学習フレームワークである。
グループフェアネスとコミュニティフェアネスの2つの概念が近年,連合学習の重要な課題として浮上している。
集団公正性は、モデルの決定が、人種や性別のような法的に保護された属性のセットに基づいて特定のグループを好まないことを要求する。
コミュニティフェアネスは、グローバルモデルが、協力するすべてのコミュニティで、同様のレベルのパフォーマンス(正確性)を示すことを要求する。
どちらのフェアネスの概念もFLフレームワーク内で共存できるが、既存の文献では概念のどちらにも焦点を当てている。
本稿では、後処理フェアフェデレーション学習(FFL)フレームワークであるPost-FFLを提案し、分析する。
ポストFFLは、グローバルモデルの有用性を最大化しながら、グループとコミュニティの公平性を同時に実施するための線形プログラムを使用する。
Post-FFLは後処理のアプローチであるため、収束特性がよく理解されている既存のFLトレーニングパイプラインで使用することができる。
本稿では、実世界のデータセットにポストFFLを用いて、例えば、病院ネットワークがコミュニティの医療を提供するためにフェデレートラーニングをどのように利用しているかを模倣する。
理論的な結果は、FFL後の精度が両概念の公正性を強制した場合に失われる。
実験の結果, ポストFFLはFLの群落公平性とコミュニティフェアネスを同時に改善することがわかった。
さらに、FFL後では、公正性、通信効率、計算コストの両面において、既存の処理フェアフェデレーション学習よりも優れています。
関連論文リスト
- Dynamic Fair Federated Learning Based on Reinforcement Learning [19.033986978896074]
フェデレートラーニングは、ローカルデータサンプルを共有することなく、デバイスのグループ間でグローバルモデルの協調トレーニングと最適化を可能にする。
DQFFLと呼ばれる強化学習を伴う動的qフェアネスフェデレーション学習アルゴリズムを提案する。
我々のDQFFLは、全体的な性能、公平性、収束速度において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-11-02T03:05:40Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - FairVFL: A Fair Vertical Federated Learning Framework with Contrastive
Adversarial Learning [102.92349569788028]
本稿では,VFLモデルの公平性を改善するために,FairVFL( Fair vertical federated learning framework)を提案する。
FairVFLの中核となる考え方は、分散化された機能フィールドに基づいたサンプルの統一的で公正な表現を、プライバシ保護の方法で学習することである。
ユーザのプライバシ保護のために,サーバ内の統一表現からプライベート情報を除去する対向学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-07T11:43:32Z) - E2FL: Equal and Equitable Federated Learning [26.5268278194427]
フェデレートラーニング(FL)は、データ所有者がプライベートデータを共有せずに、共有グローバルモデルをトレーニングすることを可能にする。
平等かつ平等なフェデレーション学習(E2FL)を、公平なフェデレーション学習モデルとして、エクイティと平等という2つの主要なフェアネス特性を同時に保持することにより、公正なフェデレーション学習モデルを作成する。
実世界の異なるFLアプリケーションにおいて、E2FLの効率性と公正性を検証し、E2FLが既存のベースラインよりも高い効率、異なるグループの公平性、公平性を示す。
論文 参考訳(メタデータ) (2022-05-20T22:37:33Z) - Heterogeneous Federated Learning via Grouped Sequential-to-Parallel
Training [60.892342868936865]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のためのコラボレーション機械学習パラダイムである。
本稿では,この課題に対処するため,データヘテロジニアス・ロバストFLアプローチであるFedGSPを提案する。
その結果,FedGSPは7つの最先端アプローチと比較して平均3.7%の精度向上を実現していることがわかった。
論文 参考訳(メタデータ) (2022-01-31T03:15:28Z) - Unified Group Fairness on Federated Learning [22.143427873780404]
フェデレートラーニング(FL)は、グローバルモデルが分散クライアントのプライベートデータに基づいてトレーニングされる、重要な機械学習パラダイムとして登場した。
近年の研究では、顧客間の公平性に焦点が当てられているが、センシティブな属性(例えば、性別や人種)によって形成される異なるグループに対する公正性は無視されている。
本稿では,G-DRFA (Group Distributionally Robust Federated Averaging) と呼ばれる新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-09T08:21:38Z) - FairFed: Enabling Group Fairness in Federated Learning [22.913999279079878]
フェデレーテッド・ラーニングは、複数のパーティで機械学習モデルを学習するための有望なソリューションと見なされている。
フェアネスを意識したアグリゲーション手法によりグループフェアネスを高める新しいアルゴリズムであるFairFedを提案する。
提案手法は,高度の不均一な属性分布の下で,最先端の公正な学習フレームワークよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-02T17:55:20Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - FedH2L: Federated Learning with Model and Statistical Heterogeneity [75.61234545520611]
フェデレートラーニング(FL)は、分散参加者が個々のデータのプライバシを犠牲にすることなく、強力なグローバルモデルを集合的に学習することを可能にする。
我々はFedH2Lを導入し、これはモデルアーキテクチャに非依存であり、参加者間で異なるデータ分散に対して堅牢である。
パラメータや勾配を共有するアプローチとは対照的に、FedH2Lは相互蒸留に依存し、参加者間で共有シードセットの後方のみを分散的に交換する。
論文 参考訳(メタデータ) (2021-01-27T10:10:18Z) - Collaborative Fairness in Federated Learning [24.7378023761443]
深層学習のための新しい協調フェアフェデレーションラーニング(CFFL)フレームワークを提案する。
CFFLは参加者に異なるモデルに収束させ、予測性能を損なうことなく公正を達成する。
ベンチマークデータセットの実験では、CFFLは高い公正性を達成し、分散フレームワークに匹敵する精度を提供する。
論文 参考訳(メタデータ) (2020-08-27T14:39:09Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。