論文の概要: PGFed: Personalize Each Client's Global Objective for Federated Learning
- arxiv url: http://arxiv.org/abs/2212.01448v2
- Date: Thu, 7 Sep 2023 16:01:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-08 17:59:21.023575
- Title: PGFed: Personalize Each Client's Global Objective for Federated Learning
- Title(参考訳): PGFed:フェデレートラーニングのための各クライアントのグローバルオブジェクトをパーソナライズ
- Authors: Jun Luo, Matias Mendieta, Chen Chen, Shandong Wu
- Abstract要約: 本稿では,各クライアントが自身のグローバルな目的をパーソナライズ可能な,パーソナライズされたFLフレームワークを提案する。
大規模な(O(N2))通信オーバーヘッドと潜在的なプライバシリークを回避するため、各クライアントのリスクは、他のクライアントの適応的リスクアグリゲーションの1次近似によって推定される。
異なるフェデレーション条件下での4つのデータセットに対する実験により,従来の最先端手法よりも一貫したPGFの改良が示された。
- 参考スコア(独自算出の注目度): 7.810284483002312
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalized federated learning has received an upsurge of attention due to
the mediocre performance of conventional federated learning (FL) over
heterogeneous data. Unlike conventional FL which trains a single global
consensus model, personalized FL allows different models for different clients.
However, existing personalized FL algorithms only implicitly transfer the
collaborative knowledge across the federation by embedding the knowledge into
the aggregated model or regularization. We observed that this implicit
knowledge transfer fails to maximize the potential of each client's empirical
risk toward other clients. Based on our observation, in this work, we propose
Personalized Global Federated Learning (PGFed), a novel personalized FL
framework that enables each client to personalize its own global objective by
explicitly and adaptively aggregating the empirical risks of itself and other
clients. To avoid massive (O(N^2)) communication overhead and potential privacy
leakage while achieving this, each client's risk is estimated through a
first-order approximation for other clients' adaptive risk aggregation. On top
of PGFed, we develop a momentum upgrade, dubbed PGFedMo, to more efficiently
utilize clients' empirical risks. Our extensive experiments on four datasets
under different federated settings show consistent improvements of PGFed over
previous state-of-the-art methods. The code is publicly available at
https://github.com/ljaiverson/pgfed.
- Abstract(参考訳): 個人化フェデレーション学習は、異種データに対する従来のフェデレーション学習(FL)の平凡な性能のため、注目を集めている。
単一のグローバルコンセンサスモデルをトレーニングする従来のflとは異なり、パーソナライズされたflは異なるクライアントに対して異なるモデルを可能にする。
しかし、既存のパーソナライズされたflアルゴリズムは、知識を集約されたモデルや正規化に組み込むことで、連合全体で協調的な知識を暗黙的に伝達するだけである。
この暗黙的な知識伝達は、各クライアントの他のクライアントに対する経験的リスクの可能性を最大化するのに失敗する。
そこで本研究では,個人化グローバルフェデレーション・ラーニング(pgfed)を提案する。このフレームワークは,自己と他のクライアントの経験的リスクを明確かつ適応的に集約することで,各クライアントが自身のグローバル目標をパーソナライズできる,新たなパーソナライズされたflフレームワークである。
これを達成しつつ、通信オーバーヘッド(O(N^2))と潜在的なプライバシーリークを回避するため、各クライアントのリスクは、他のクライアントの適応的リスクアグリゲーションの1次近似によって推定される。
PGFedの上にPGFedMoと呼ばれるモーメントアップグレードを開発し、クライアントの経験的リスクをより効率的に活用する。
異なるフェデレーション設定下での4つのデータセットに対する広範な実験により、従来の最先端手法よりも一貫したPGFの改良が示された。
コードはhttps://github.com/ljaiverson/pgfedで公開されている。
関連論文リスト
- Personalized Federated Knowledge Graph Embedding with Client-Wise Relation Graph [49.66272783945571]
クライアント関係グラフを用いた個人化フェデレーション知識グラフを提案する。
PFedEGは、近隣のクライアントから埋め込まれたエンティティを集約することで、各クライアントに対してパーソナライズされた補完知識を学習する。
我々は4つのベンチマークデータセットの広範な実験を行い、その手法を最先端モデルに対して評価する。
論文 参考訳(メタデータ) (2024-06-17T17:44:53Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - PFL-GAN: When Client Heterogeneity Meets Generative Models in
Personalized Federated Learning [55.930403371398114]
パーソナライズドラーニング(PFL)のための新しいGAN(Generative Adversarial Network)の共有と集約戦略を提案する。
PFL-GANは、異なるシナリオにおけるクライアントの不均一性に対処する。より具体的には、まずクライアント間の類似性を学び、次に重み付けされた協調データアグリゲーションを開発する。
いくつかのよく知られたデータセットに対する厳密な実験による実験結果は、PFL-GANの有効性を示している。
論文 参考訳(メタデータ) (2023-08-23T22:38:35Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Personalized Federated Learning via Amortized Bayesian Meta-Learning [21.126405589760367]
我々は,Amortized Bayesian Meta-Learningを通じて,パーソナライズド・フェデレーション・ラーニングの新しい視点を紹介する。
具体的には,クライアント間の階層的変動推論を用いたemphFedABMLという新しいアルゴリズムを提案する。
我々の理論解析は平均一般化誤差の上限を提供し、未知のデータに対する一般化性能を保証する。
論文 参考訳(メタデータ) (2023-07-05T11:58:58Z) - FedJETs: Efficient Just-In-Time Personalization with Federated Mixture
of Experts [48.78037006856208]
FedJETsは、Federated Learning(FL)セットアップ内でMixture-of-Experts(MoE)フレームワークを使用することで、新しいソリューションである。
我々の方法は、クライアントの多様性を活用して、クラスのサブセットの異なる専門家を訓練し、最も関係のある専門家に入力をルーティングするゲーティング機能を提供します。
我々の手法は、競争力のあるゼロショット性能を維持しながら、アートFL設定時の精度を最大18%向上させることができる。
論文 参考訳(メタデータ) (2023-06-14T15:47:52Z) - Confidence-aware Personalized Federated Learning via Variational
Expectation Maximization [34.354154518009956]
パーソナライズド・フェデレーション・ラーニング(PFL)のための新しいフレームワークを提案する。
PFLは、クライアント間で共有モデルをトレーニングする分散学習スキームである。
階層的モデリングと変分推論に基づくPFLの新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-21T20:12:27Z) - Personalized Federated Learning on Long-Tailed Data via Adversarial
Feature Augmentation [24.679535905451758]
PFLは、プライバシを保存する方法で、すべてのクライアントの知識に基づいて、各クライアントのパーソナライズされたモデルを学ぶことを目的としている。
既存のPFL法では、全てのクライアントにわたる基礎となるグローバルデータが、ロングテール分布を考慮せずに均一に分散されていると仮定している。
PFLにおけるこの共同問題に対処するために,FedAFA(Federated Learning with Adversarial Feature Augmentation)を提案する。
論文 参考訳(メタデータ) (2023-03-27T13:00:20Z) - Personalized Privacy-Preserving Framework for Cross-Silo Federated
Learning [0.0]
Federated Learning(FL)は有望な分散ディープラーニング(DL)フレームワークであり、プライベートデータを共有することなく、クライアント間で共同でトレーニングされたDLベースのアプローチを可能にする。
本稿では,PPPFL(Personalized Privacy-Preserving Federated Learning)という新しいフレームワークを提案する。
提案するフレームワークは,MNIST,Fashion-MNIST,CIFAR-10,CIFAR-100など,さまざまなデータセット上で複数のFLベースラインより優れている。
論文 参考訳(メタデータ) (2023-02-22T07:24:08Z) - To Federate or Not To Federate: Incentivizing Client Participation in
Federated Learning [22.3101738137465]
フェデレートラーニング(FL)は、共通の機械学習モデルをトレーニングしようとするクライアントのグループ間のコラボレーションを促進する。
本稿では,グローバルモデルにインセンティブを与えるクライアントの割合を明示的に最大化する,IncFLと呼ばれるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-30T04:03:31Z) - Personalized Federated Learning with First Order Model Optimization [76.81546598985159]
そこで我々は,各クライアントが他のクライアントと連携して,クライアント固有の目的ごとのより強力なモデルを得る,フェデレーション学習の代替案を提案する。
基礎となるデータ分布やクライアントの類似性に関する知識を前提とせず、各クライアントが関心のある任意のターゲット分布を最適化できるようにします。
この手法は既存の代替品を上回り、ローカルデータ配信以外の転送のようなパーソナライズされたFLの新機能を可能にする。
論文 参考訳(メタデータ) (2020-12-15T19:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。