論文の概要: Proportional Fairness in Federated Learning
- arxiv url: http://arxiv.org/abs/2202.01666v5
- Date: Tue, 9 May 2023 15:16:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 16:53:55.978456
- Title: Proportional Fairness in Federated Learning
- Title(参考訳): 連合学習における比例的公平性
- Authors: Guojun Zhang, Saber Malekmohammadi, Xi Chen and Yaoliang Yu
- Abstract要約: PropFairは、フェデレート学習において、比例的に公平な解を見つけるための、新しく簡単に実装できるアルゴリズムである。
PropFairはおよそPFソリューションを見つけることができ、すべてのクライアントの平均的なパフォーマンスと最悪の10%のクライアントのバランスがとれることを実証します。
- 参考スコア(独自算出の注目度): 27.086313029073683
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasingly broad deployment of federated learning (FL) systems in
the real world, it is critical but challenging to ensure fairness in FL, i.e.
reasonably satisfactory performances for each of the numerous diverse clients.
In this work, we introduce and study a new fairness notion in FL, called
proportional fairness (PF), which is based on the relative change of each
client's performance. From its connection with the bargaining games, we propose
PropFair, a novel and easy-to-implement algorithm for finding proportionally
fair solutions in FL and study its convergence properties. Through extensive
experiments on vision and language datasets, we demonstrate that PropFair can
approximately find PF solutions, and it achieves a good balance between the
average performances of all clients and of the worst 10% clients. Our code is
available at
\url{https://github.com/huawei-noah/Federated-Learning/tree/main/FairFL}.
- Abstract(参考訳): FL(Federated Learning)システムが現実世界に広範に展開されるようになると、FLにおける公平性、すなわち多様なクライアントのそれぞれに対して合理的に満足できるパフォーマンスを保証することは極めて困難である。
本研究では,各クライアントの性能の相対的変化に基づく比例公平性(PF)という,FLにおける新しい公平性の概念を紹介し,研究する。
バーゲティングゲームとの関連性から,FLにおける比例的公正解の探索と収束特性の研究を行うための,新規で実装が容易なアルゴリズムであるPropFairを提案する。
視覚と言語データセットに関する広範な実験を通じて,propfairはpfソリューションをほぼ見つけることができ,全クライアントの平均パフォーマンスと最悪の10%クライアントとのバランスが良好であることを実証した。
私たちのコードは \url{https://github.com/huawei-noah/Federated-Learning/tree/main/FairFL} で利用可能です。
関連論文リスト
- Federated Fairness Analytics: Quantifying Fairness in Federated Learning [2.9674793945631097]
Federated Learning(FL)は、分散MLのためのプライバシ強化技術である。
FLは古典的なMLから公平性の問題を受け継ぎ、新しいものを導入している。
公正度を測定するための方法論であるフェデレートフェアネス分析を提案する。
論文 参考訳(メタデータ) (2024-08-15T15:23:32Z) - Embracing Federated Learning: Enabling Weak Client Participation via Partial Model Training [21.89214794178211]
フェデレートラーニング(FL)では、クライアントは完全なモデルをトレーニングしたり、メモリ空間に保持することができない弱いデバイスを持っているかもしれない。
我々は、すべての利用可能なクライアントが分散トレーニングに参加することを可能にする、一般的なFLフレームワークであるEnbracingFLを提案する。
実験により,FL の導入は,すべてのクライアントが強力であるように常に高い精度を達成し,最先端の幅削減手法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-21T13:19:29Z) - PFL-GAN: When Client Heterogeneity Meets Generative Models in
Personalized Federated Learning [55.930403371398114]
パーソナライズドラーニング(PFL)のための新しいGAN(Generative Adversarial Network)の共有と集約戦略を提案する。
PFL-GANは、異なるシナリオにおけるクライアントの不均一性に対処する。より具体的には、まずクライアント間の類似性を学び、次に重み付けされた協調データアグリゲーションを開発する。
いくつかのよく知られたデータセットに対する厳密な実験による実験結果は、PFL-GANの有効性を示している。
論文 参考訳(メタデータ) (2023-08-23T22:38:35Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Fairness-Aware Client Selection for Federated Learning [13.781019191483864]
フェデレートラーニング(FL)により、複数のデータ所有者(FLクライアント)が、プライベートデータを公開せずに、機械学習モデルを協調的にトレーニングできるようになった。
FLサーバは各トレーニングラウンドで限られた数のクライアントしか扱えないため、FLクライアントの選択は重要な研究課題となっている。
Lyapunovの最適化に基づき、FLクライアントの評判、FLタスクへの参加時期、モデル性能への貢献を共同で考慮し、FLクライアントの選択確率を動的に調整する。
論文 参考訳(メタデータ) (2023-07-20T10:04:55Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - A Fair Federated Learning Framework With Reinforcement Learning [23.675056844328]
フェデレートラーニング(Federated Learning, FL)は、多くのクライアントが中央サーバの協調の下でモデルを協調的にトレーニングするパラダイムである。
本稿では,クライアントにアグリゲーション重み付けを割り当てるポリシを自動的に学習するPG-FFLという強化学習フレームワークを提案する。
フレームワークの有効性を検証するため、多様なデータセットに対して広範な実験を行う。
論文 参考訳(メタデータ) (2022-05-26T15:10:16Z) - FL Games: A federated learning framework for distribution shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するためのゲーム理論のフレームワークであるFL Gamesを提案する。
論文 参考訳(メタデータ) (2022-05-23T07:51:45Z) - E2FL: Equal and Equitable Federated Learning [26.5268278194427]
フェデレートラーニング(FL)は、データ所有者がプライベートデータを共有せずに、共有グローバルモデルをトレーニングすることを可能にする。
平等かつ平等なフェデレーション学習(E2FL)を、公平なフェデレーション学習モデルとして、エクイティと平等という2つの主要なフェアネス特性を同時に保持することにより、公正なフェデレーション学習モデルを作成する。
実世界の異なるFLアプリケーションにおいて、E2FLの効率性と公正性を検証し、E2FLが既存のベースラインよりも高い効率、異なるグループの公平性、公平性を示す。
論文 参考訳(メタデータ) (2022-05-20T22:37:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。