論文の概要: Equality Is Not Equity: Proportional Fairness in Federated Learning
- arxiv url: http://arxiv.org/abs/2202.01666v1
- Date: Thu, 3 Feb 2022 16:28:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-04 13:34:00.276393
- Title: Equality Is Not Equity: Proportional Fairness in Federated Learning
- Title(参考訳): 平等は平等ではない: 連帯学習における比例公平性
- Authors: Guojun Zhang, Saber Malekmohammadi, Xi Chen and Yaoliang Yu
- Abstract要約: ゲーム理論と深い関係を持つフェデレーション学習における比例公正(PF)について検討する。
本稿では,PF ソリューションを効果的に発見するための新しい実装アルゴリズム PropFair を提案する。
PropFairは、最先端のフェアFLアルゴリズムに対して、最悪のケースと全体的なパフォーマンスを継続的に改善する実験を通して説明する。
- 参考スコア(独自算出の注目度): 27.086313029073683
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensuring fairness of machine learning (ML) algorithms is becoming an
increasingly important mission for ML service providers. This is even more
critical and challenging in the federated learning (FL) scenario, given a large
number of diverse participating clients. Simply mandating equality across
clients could lead to many undesirable consequences, potentially discouraging
high-performing clients and resulting in sub-optimal overall performance. In
order to achieve better equity rather than equality, in this work, we introduce
and study proportional fairness (PF) in FL, which has a deep connection with
game theory. By viewing FL from a cooperative game perspective, where the
players (clients) collaboratively learn a good model, we formulate PF as Nash
bargaining solutions. Based on this concept, we propose PropFair, a novel and
easy-to-implement algorithm for effectively finding PF solutions, and we prove
its convergence properties. We illustrate through experiments that PropFair
consistently improves the worst-case and the overall performances
simultaneously over state-of-the-art fair FL algorithms for a wide array of
vision and language datasets, thus achieving better equity.
- Abstract(参考訳): 機械学習(ML)アルゴリズムの公正性を保証することは、MLサービスプロバイダにとってますます重要なミッションになりつつある。
これは、多くの多様なクライアントが参加していることを考えると、フェデレートラーニング(FL)のシナリオにおいてさらに重要で挑戦的です。
クライアント間の平等を単純に管理すれば、多くの望ましくない結果につながり、パフォーマンスの高いクライアントを損なう可能性がある。
本研究は、平等よりもより良い平等を達成するために、ゲーム理論と深い関係を持つflにおける比例フェアネス(pf)を導入し、研究する。
FLを協調ゲームの観点から見ることにより、プレイヤー(クライアント)が協調して良いモデルを学習し、PFをナッシュバーゲインソリューションとして定式化する。
この概念に基づき,pf 解を効果的に探索するための新規かつ実装容易なアルゴリズム propfair を提案し,その収束性を証明する。
我々は、幅広いビジョンと言語データセットのための最先端のfair flアルゴリズムに対して、propfairが一貫して最悪のケースと全体的なパフォーマンスを改善し、より良いエクイティを達成する実験を通して示す。
関連論文リスト
- Federated Fairness Analytics: Quantifying Fairness in Federated Learning [2.9674793945631097]
Federated Learning(FL)は、分散MLのためのプライバシ強化技術である。
FLは古典的なMLから公平性の問題を受け継ぎ、新しいものを導入している。
公正度を測定するための方法論であるフェデレートフェアネス分析を提案する。
論文 参考訳(メタデータ) (2024-08-15T15:23:32Z) - Embracing Federated Learning: Enabling Weak Client Participation via Partial Model Training [21.89214794178211]
フェデレートラーニング(FL)では、クライアントは完全なモデルをトレーニングしたり、メモリ空間に保持することができない弱いデバイスを持っているかもしれない。
我々は、すべての利用可能なクライアントが分散トレーニングに参加することを可能にする、一般的なFLフレームワークであるEnbracingFLを提案する。
実験により,FL の導入は,すべてのクライアントが強力であるように常に高い精度を達成し,最先端の幅削減手法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-21T13:19:29Z) - PFL-GAN: When Client Heterogeneity Meets Generative Models in
Personalized Federated Learning [55.930403371398114]
パーソナライズドラーニング(PFL)のための新しいGAN(Generative Adversarial Network)の共有と集約戦略を提案する。
PFL-GANは、異なるシナリオにおけるクライアントの不均一性に対処する。より具体的には、まずクライアント間の類似性を学び、次に重み付けされた協調データアグリゲーションを開発する。
いくつかのよく知られたデータセットに対する厳密な実験による実験結果は、PFL-GANの有効性を示している。
論文 参考訳(メタデータ) (2023-08-23T22:38:35Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Fairness-Aware Client Selection for Federated Learning [13.781019191483864]
フェデレートラーニング(FL)により、複数のデータ所有者(FLクライアント)が、プライベートデータを公開せずに、機械学習モデルを協調的にトレーニングできるようになった。
FLサーバは各トレーニングラウンドで限られた数のクライアントしか扱えないため、FLクライアントの選択は重要な研究課題となっている。
Lyapunovの最適化に基づき、FLクライアントの評判、FLタスクへの参加時期、モデル性能への貢献を共同で考慮し、FLクライアントの選択確率を動的に調整する。
論文 参考訳(メタデータ) (2023-07-20T10:04:55Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - A Fair Federated Learning Framework With Reinforcement Learning [23.675056844328]
フェデレートラーニング(Federated Learning, FL)は、多くのクライアントが中央サーバの協調の下でモデルを協調的にトレーニングするパラダイムである。
本稿では,クライアントにアグリゲーション重み付けを割り当てるポリシを自動的に学習するPG-FFLという強化学習フレームワークを提案する。
フレームワークの有効性を検証するため、多様なデータセットに対して広範な実験を行う。
論文 参考訳(メタデータ) (2022-05-26T15:10:16Z) - FL Games: A federated learning framework for distribution shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するためのゲーム理論のフレームワークであるFL Gamesを提案する。
論文 参考訳(メタデータ) (2022-05-23T07:51:45Z) - E2FL: Equal and Equitable Federated Learning [26.5268278194427]
フェデレートラーニング(FL)は、データ所有者がプライベートデータを共有せずに、共有グローバルモデルをトレーニングすることを可能にする。
平等かつ平等なフェデレーション学習(E2FL)を、公平なフェデレーション学習モデルとして、エクイティと平等という2つの主要なフェアネス特性を同時に保持することにより、公正なフェデレーション学習モデルを作成する。
実世界の異なるFLアプリケーションにおいて、E2FLの効率性と公正性を検証し、E2FLが既存のベースラインよりも高い効率、異なるグループの公平性、公平性を示す。
論文 参考訳(メタデータ) (2022-05-20T22:37:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。