論文の概要: E2FL: Equal and Equitable Federated Learning
- arxiv url: http://arxiv.org/abs/2205.10454v1
- Date: Fri, 20 May 2022 22:37:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 19:30:22.091292
- Title: E2FL: Equal and Equitable Federated Learning
- Title(参考訳): e2fl:等しく公平な連合学習
- Authors: Hamid Mozaffari, Amir Houmansadr
- Abstract要約: フェデレートラーニング(FL)は、データ所有者がプライベートデータを共有せずに、共有グローバルモデルをトレーニングすることを可能にする。
平等かつ平等なフェデレーション学習(E2FL)を、公平なフェデレーション学習モデルとして、エクイティと平等という2つの主要なフェアネス特性を同時に保持することにより、公正なフェデレーション学習モデルを作成する。
実世界の異なるFLアプリケーションにおいて、E2FLの効率性と公正性を検証し、E2FLが既存のベースラインよりも高い効率、異なるグループの公平性、公平性を示す。
- 参考スコア(独自算出の注目度): 26.5268278194427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) enables data owners to train a shared global model
without sharing their private data. Unfortunately, FL is susceptible to an
intrinsic fairness issue: due to heterogeneity in clients' data distributions,
the final trained model can give disproportionate advantages across the
participating clients. In this work, we present Equal and Equitable Federated
Learning (E2FL) to produce fair federated learning models by preserving two
main fairness properties, equity and equality, concurrently. We validate the
efficiency and fairness of E2FL in different real-world FL applications, and
show that E2FL outperforms existing baselines in terms of the resulting
efficiency, fairness of different groups, and fairness among all individual
clients.
- Abstract(参考訳): フェデレートラーニング(FL)により、データ所有者はプライベートデータを共有することなく、共有グローバルモデルをトレーニングできる。
クライアントのデータ分散の不均一性のため、最終的なトレーニングモデルは、参加するクライアント間で不均質なアドバンテージを与えることができます。
本研究では,等等等等等分連立学習(e2fl)を提示し,公平連立学習モデルを構築し,公平性と平等性という2つの主公平性を同時に保持する。
実世界の異なるFLアプリケーションにおいて、E2FLの効率性と公正性を検証し、E2FLが既存のベースラインよりも高い効率、異なるグループの公平性、公平性を示す。
関連論文リスト
- WassFFed: Wasserstein Fair Federated Learning [31.135784690264888]
Federated Learning (FL)は、ユーザのデータをクライアント間で共有できないシナリオに対処するためのトレーニングアプローチを採用している。
本稿では,Wasserstein Fair Federated Learningフレームワーク,すなわちWassFFedを提案する。
論文 参考訳(メタデータ) (2024-11-11T11:26:22Z) - Post-Fair Federated Learning: Achieving Group and Community Fairness in Federated Learning via Post-processing [2.361519691494246]
フェアネスという概念は、グループフェアネスとコミュニティフェアネスという、連合学習の重要な問題として現れてきた。
本稿では,ポストFFL(Post-FFL)と呼ばれる,処理後のフェアフェデレーション学習フレームワークを提案し,分析する。
論文 参考訳(メタデータ) (2024-05-28T03:26:00Z) - Multi-dimensional Fair Federated Learning [25.07463977553212]
フェデレートラーニング(FL)は、分散データからモデルをトレーニングするための、有望な協調的でセキュアなパラダイムとして登場した。
群フェアネスとクライアントフェアネスは、FLにとって重要である2次元のフェアネスである。
グループフェアネスとクライアントフェアネスを同時に達成するために,mFairFLと呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2023-12-09T11:37:30Z) - PFL-GAN: When Client Heterogeneity Meets Generative Models in
Personalized Federated Learning [55.930403371398114]
パーソナライズドラーニング(PFL)のための新しいGAN(Generative Adversarial Network)の共有と集約戦略を提案する。
PFL-GANは、異なるシナリオにおけるクライアントの不均一性に対処する。より具体的には、まずクライアント間の類似性を学び、次に重み付けされた協調データアグリゲーションを開発する。
いくつかのよく知られたデータセットに対する厳密な実験による実験結果は、PFL-GANの有効性を示している。
論文 参考訳(メタデータ) (2023-08-23T22:38:35Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - FedABC: Targeting Fair Competition in Personalized Federated Learning [76.9646903596757]
フェデレートラーニングは、クライアントのローカルプライベートデータにアクセスすることなく、モデルを協調的にトレーニングすることを目的としている。
我々はFedABCと呼ばれるバイナリ分類によるFederated Averagingと呼ばれる新規で汎用的なPFLフレームワークを提案する。
特に、各クライアントに1対1のトレーニング戦略を採用して、クラス間の不公平な競争を軽減する。
論文 参考訳(メタデータ) (2023-02-15T03:42:59Z) - Towards Fairer and More Efficient Federated Learning via
Multidimensional Personalized Edge Models [36.84027517814128]
フェデレートラーニング(FL)は、プライバシーを維持しながら、大規模で地理的に分散したエッジデータをトレーニングする。
複数の次元からFLの不均一性を除去するカスタム・フェデレート・ラーニング(CFL)システムを提案する。
CFLは、オンライントレーニングされたモデル検索ヘルパーと新しい集約アルゴリズムによって、クライアントごとに特別に設計されたグローバルモデルからパーソナライズされたモデルをカスタマイズする。
論文 参考訳(メタデータ) (2023-02-09T06:55:19Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - FairVFL: A Fair Vertical Federated Learning Framework with Contrastive
Adversarial Learning [102.92349569788028]
本稿では,VFLモデルの公平性を改善するために,FairVFL( Fair vertical federated learning framework)を提案する。
FairVFLの中核となる考え方は、分散化された機能フィールドに基づいたサンプルの統一的で公正な表現を、プライバシ保護の方法で学習することである。
ユーザのプライバシ保護のために,サーバ内の統一表現からプライベート情報を除去する対向学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-07T11:43:32Z) - Proportional Fairness in Federated Learning [27.086313029073683]
PropFairは、フェデレート学習において、比例的に公平な解を見つけるための、新しく簡単に実装できるアルゴリズムである。
PropFairはおよそPFソリューションを見つけることができ、すべてのクライアントの平均的なパフォーマンスと最悪の10%のクライアントのバランスがとれることを実証します。
論文 参考訳(メタデータ) (2022-02-03T16:28:04Z) - FedH2L: Federated Learning with Model and Statistical Heterogeneity [75.61234545520611]
フェデレートラーニング(FL)は、分散参加者が個々のデータのプライバシを犠牲にすることなく、強力なグローバルモデルを集合的に学習することを可能にする。
我々はFedH2Lを導入し、これはモデルアーキテクチャに非依存であり、参加者間で異なるデータ分散に対して堅牢である。
パラメータや勾配を共有するアプローチとは対照的に、FedH2Lは相互蒸留に依存し、参加者間で共有シードセットの後方のみを分散的に交換する。
論文 参考訳(メタデータ) (2021-01-27T10:10:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。