論文の概要: Test-Time Robust Personalization for Federated Learning
- arxiv url: http://arxiv.org/abs/2205.10920v1
- Date: Sun, 22 May 2022 20:08:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-29 18:31:54.981224
- Title: Test-Time Robust Personalization for Federated Learning
- Title(参考訳): フェデレーション学習のためのテスト時間ロバストパーソナライゼーション
- Authors: Liangze Jiang, Tao Lin
- Abstract要約: Federated Learning(FL)は、多くのクライアントが分散トレーニングデータで共有グローバルモデルを共同で学習する機械学習パラダイムである。
FLモデルのパーソナライゼーションは、グローバルモデルを異なるクライアントに適応させ、一貫したローカルトレーニングおよびテスト分布に関する有望な結果を達成する。
本稿では,新しいテスト時ロバストなパーソナライズ手法であるフェデレーションテスト時ヘッドアンサンブルとチューニング(FedTHE+)を提案する。
- 参考スコア(独自算出の注目度): 5.553167334488855
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) is a machine learning paradigm where many clients
collaboratively learn a shared global model with decentralized training data.
Personalization on FL model additionally adapts the global model to different
clients, achieving promising results on consistent local training & test
distributions. However, for real-world personalized FL applications, it is
crucial to go one step further: robustifying FL models under evolving local
test set during deployment, where various types of distribution shifts can
arise. In this work, we identify the pitfalls of existing works under test-time
distribution shifts and propose a novel test-time robust personalization
method, namely Federated Test-time Head Ensemble plus tuning (FedTHE+). We
illustrate the advancement of FedTHE+ (and its degraded computationally
efficient variant FedTHE) over strong competitors, for training various neural
architectures (CNN, ResNet, and Transformer) on CIFAR10 and ImageNet and
evaluating on diverse test distributions. Along with this, we build a benchmark
for assessing performance and robustness of personalized FL methods during
deployment.
- Abstract(参考訳): Federated Learning(FL)は、多くのクライアントが分散トレーニングデータで共有グローバルモデルを共同で学習する機械学習パラダイムである。
FLモデルのパーソナライゼーションは、グローバルモデルを異なるクライアントに適応させ、一貫したローカルトレーニングおよびテスト分布に関する有望な結果を達成する。
しかし、現実のパーソナライズされたFLアプリケーションにとって、さらに一歩進むことが重要である。様々な種類の分散シフトが発生するデプロイメント中に、ローカルテストセットの進化の下でFLモデルを堅牢化すること。
本研究では,テスト時分布シフトにおける既存の作業の落とし穴を特定し,フェデレートテスト時ヘッドアンサンブル+チューニング(FedTHE+)という新しいテスト時ロバストなパーソナライズ手法を提案する。
我々は、CIFAR10とImageNet上で様々なニューラルネットワーク(CNN、ResNet、Transformer)をトレーニングし、様々なテスト分布を評価するために、強力な競合相手に対してFedTHE+(および、その劣化した計算効率の悪いFedTHE)の進歩を説明する。
これに加えて、デプロイ時にパーソナライズしたflメソッドのパフォーマンスとロバスト性を評価するベンチマークを構築します。
関連論文リスト
- Personalized Federated Learning via Feature Distribution Adaptation [3.410799378893257]
Federated Learning(FL)は、分散クライアントデータセット間の共通性を利用してグローバルモデルをトレーニングする分散学習フレームワークである。
パーソナライズド・フェデレーション・ラーニング(PFL)は、各クライアントに適した個々のモデルを学習することで、この問題に対処しようとしている。
我々は,グローバルな生成型分類器を局所的な特徴分布に適応させることで,パーソナライズされたモデルを効率的に生成するアルゴリズム,pFedFDAを提案する。
論文 参考訳(メタデータ) (2024-11-01T03:03:52Z) - Multi-level Personalized Federated Learning on Heterogeneous and Long-Tailed Data [10.64629029156029]
マルチレベル・パーソナライズド・フェデレーション・ラーニング(MuPFL)という革新的パーソナライズド・パーソナライズド・ラーニング・フレームワークを導入する。
MuPFLは3つの重要なモジュールを統合している: Biased Activation Value Dropout (BAVD), Adaptive Cluster-based Model Update (ACMU), Prior Knowledge-assisted Fine-tuning (PKCF)。
様々な実世界のデータセットの実験では、MuPFLは極端に非i.d.と長い尾の条件下であっても、最先端のベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2024-05-10T11:52:53Z) - Adaptive Test-Time Personalization for Federated Learning [51.25437606915392]
テスト時パーソナライズド・フェデレーション・ラーニング(TTPFL)と呼ばれる新しい設定を導入する。
TTPFLでは、クライアントはテスト期間中にラベル付きデータに頼ることなく、教師なしの方法でグローバルモデルをローカルに適応する。
本稿では,ソースドメイン間の分散シフトから,モデル内の各モジュールの適応率を適応的に学習する ATP という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-28T20:42:47Z) - Visual Prompt Based Personalized Federated Learning [83.04104655903846]
pFedPTと呼ばれる画像分類タスクのための新しいPFLフレームワークを提案し、クライアントのローカルデータ配信情報を暗黙的に表現するためにパーソナライズされた視覚的プロンプトを利用する。
CIFAR10とCIFAR100データセットの実験では、pFedPTは様々な設定でいくつかの最先端(SOTA)PFLアルゴリズムより優れていた。
論文 参考訳(メタデータ) (2023-03-15T15:02:15Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - Multi-Model Federated Learning with Provable Guarantees [19.470024548995717]
Federated Learning (FL) は分散学習の亜種であり、デバイスは中央サーバや互いにデータを共有せずにモデルを学習する。
多モデルエッジFLとして,クライアントの共通プールを用いたフェデレーション設定において,複数の独立クライアントの処理を同時に参照する。
論文 参考訳(メタデータ) (2022-07-09T19:47:52Z) - FL Games: A federated learning framework for distribution shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するためのゲーム理論のフレームワークであるFL Gamesを提案する。
論文 参考訳(メタデータ) (2022-05-23T07:51:45Z) - Efficient Split-Mix Federated Learning for On-Demand and In-Situ
Customization [107.72786199113183]
フェデレートラーニング(FL)は、複数の参加者が生データを共有せずに学習をコラボレーションするための分散ラーニングフレームワークを提供する。
本稿では, モデルサイズとロバスト性をその場でカスタマイズできる, 不均一な参加者のための新しいスプリット・ミクス・FL戦略を提案する。
論文 参考訳(メタデータ) (2022-03-18T04:58:34Z) - Federated learning with hierarchical clustering of local updates to
improve training on non-IID data [3.3517146652431378]
一つのジョイントモデルを学ぶことは、特定の種類の非IDデータが存在する場合に最適ではないことがよく示される。
階層的クラスタリングステップ(FL+HC)を導入することでFLに修正を加える。
FL+HCは,クラスタリングを伴わないFLに比べて,より少ない通信ラウンドでモデルトレーニングを収束させることができることを示す。
論文 参考訳(メタデータ) (2020-04-24T15:16:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。