論文の概要: FedL2P: Federated Learning to Personalize
- arxiv url: http://arxiv.org/abs/2310.02420v1
- Date: Tue, 3 Oct 2023 20:34:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 17:42:38.362738
- Title: FedL2P: Federated Learning to Personalize
- Title(参考訳): FedL2P: 個人化のためのフェデレーションラーニング
- Authors: Royson Lee, Minyoung Kim, Da Li, Xinchi Qiu, Timothy Hospedales,
Ferenc Husz\'ar, Nicholas D. Lane
- Abstract要約: パーソナライズ戦略の学習におけるメタラーニングの問題について考察する。
FLを通してこれらのメタネットを学習することにより、FLネットワーク全体がクライアントごとにカスタマイズされたパーソナライズ戦略を学習できるようにする。
実験の結果,このフレームワークは,ラベルと特徴シフトの両状況において,手作りの標準的なパーソナライゼーションベースラインを改善していることがわかった。
- 参考スコア(独自算出の注目度): 35.73043301942372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) research has made progress in developing algorithms
for distributed learning of global models, as well as algorithms for local
personalization of those common models to the specifics of each client's local
data distribution. However, different FL problems may require different
personalization strategies, and it may not even be possible to define an
effective one-size-fits-all personalization strategy for all clients: depending
on how similar each client's optimal predictor is to that of the global model,
different personalization strategies may be preferred. In this paper, we
consider the federated meta-learning problem of learning personalization
strategies. Specifically, we consider meta-nets that induce the batch-norm and
learning rate parameters for each client given local data statistics. By
learning these meta-nets through FL, we allow the whole FL network to
collaborate in learning a customized personalization strategy for each client.
Empirical results show that this framework improves on a range of standard
hand-crafted personalization baselines in both label and feature shift
situations.
- Abstract(参考訳): フェデレートラーニング(FL)研究は、グローバルモデルの分散学習のためのアルゴリズムや、それらの共通モデルの局所的パーソナライズのためのアルゴリズムを、各クライアントのローカルデータ分布の特定物に対して開発している。
しかしながら、異なるfl問題は異なるパーソナライズ戦略を必要とする可能性があり、すべてのクライアントに対して効果的な1サイズ適合のパーソナライズ戦略を定義することさえできないかもしれない。
本稿では,学習のパーソナライゼーション戦略におけるフェデレーションメタラーニング問題について考察する。
具体的には,各クライアントのローカルデータ統計値からバッチノルムと学習率パラメータを誘導するメタネットを検討する。
FLを通してこれらのメタネットを学習することにより、FLネットワーク全体がクライアントごとにカスタマイズされたパーソナライズ戦略を学習できるようにする。
実験の結果,このフレームワークは,ラベルと特徴シフトの両状況において,手作りの標準的なパーソナライゼーションベースラインを改善していることがわかった。
関連論文リスト
- Personalized Federated Learning via Feature Distribution Adaptation [3.410799378893257]
Federated Learning(FL)は、分散クライアントデータセット間の共通性を利用してグローバルモデルをトレーニングする分散学習フレームワークである。
パーソナライズド・フェデレーション・ラーニング(PFL)は、各クライアントに適した個々のモデルを学習することで、この問題に対処しようとしている。
我々は,グローバルな生成型分類器を局所的な特徴分布に適応させることで,パーソナライズされたモデルを効率的に生成するアルゴリズム,pFedFDAを提案する。
論文 参考訳(メタデータ) (2024-11-01T03:03:52Z) - Learn What You Need in Personalized Federated Learning [53.83081622573734]
$textitLearn2pFed$は、アルゴリズムに基づくパーソナライズされたフェデレーション学習フレームワークである。
我々は、textitLearn2pFed$が、従来のパーソナライズされたフェデレーション学習方法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-01-16T12:45:15Z) - Personalized Federated Learning via Amortized Bayesian Meta-Learning [21.126405589760367]
我々は,Amortized Bayesian Meta-Learningを通じて,パーソナライズド・フェデレーション・ラーニングの新しい視点を紹介する。
具体的には,クライアント間の階層的変動推論を用いたemphFedABMLという新しいアルゴリズムを提案する。
我々の理論解析は平均一般化誤差の上限を提供し、未知のデータに対する一般化性能を保証する。
論文 参考訳(メタデータ) (2023-07-05T11:58:58Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - FedJETs: Efficient Just-In-Time Personalization with Federated Mixture
of Experts [48.78037006856208]
FedJETsは、Federated Learning(FL)セットアップ内でMixture-of-Experts(MoE)フレームワークを使用することで、新しいソリューションである。
我々の方法は、クライアントの多様性を活用して、クラスのサブセットの異なる専門家を訓練し、最も関係のある専門家に入力をルーティングするゲーティング機能を提供します。
我々の手法は、競争力のあるゼロショット性能を維持しながら、アートFL設定時の精度を最大18%向上させることができる。
論文 参考訳(メタデータ) (2023-06-14T15:47:52Z) - Visual Prompt Based Personalized Federated Learning [83.04104655903846]
pFedPTと呼ばれる画像分類タスクのための新しいPFLフレームワークを提案し、クライアントのローカルデータ配信情報を暗黙的に表現するためにパーソナライズされた視覚的プロンプトを利用する。
CIFAR10とCIFAR100データセットの実験では、pFedPTは様々な設定でいくつかの最先端(SOTA)PFLアルゴリズムより優れていた。
論文 参考訳(メタデータ) (2023-03-15T15:02:15Z) - Group Personalized Federated Learning [15.09115201646396]
フェデレートラーニング(FL)は、クライアントの物理デバイス上で分散的な方法で共有モデルをトレーニングすることで、データのプライバシを促進するのに役立つ。
本稿では,FLの応用に向けたグループパーソナライズ手法を提案する。
論文 参考訳(メタデータ) (2022-10-04T19:20:19Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Adapt to Adaptation: Learning Personalization for Cross-Silo Federated
Learning [6.0088002781256185]
従来のフェデレーション学習は、分散データによるクライアントのフェデレーションのためのグローバルモデルをトレーニングすることを目的としている。
非IIDデータセット間の分散シフトは、データヘテロジニティとしても知られ、この1つのグローバルモデルに適合するソリューションにしばしば挑戦する。
我々は、各クライアントが他のクライアントのモデルからどれだけの恩恵を受けることができるかを適応的に学習するパーソナライズされたクロスサイロFLフレームワークであるAPPLEを提案する。
論文 参考訳(メタデータ) (2021-10-15T22:23:14Z) - Personalized Federated Learning with First Order Model Optimization [76.81546598985159]
そこで我々は,各クライアントが他のクライアントと連携して,クライアント固有の目的ごとのより強力なモデルを得る,フェデレーション学習の代替案を提案する。
基礎となるデータ分布やクライアントの類似性に関する知識を前提とせず、各クライアントが関心のある任意のターゲット分布を最適化できるようにします。
この手法は既存の代替品を上回り、ローカルデータ配信以外の転送のようなパーソナライズされたFLの新機能を可能にする。
論文 参考訳(メタデータ) (2020-12-15T19:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。