論文の概要: Personalized Federated Learning: A Meta-Learning Approach
- arxiv url: http://arxiv.org/abs/2002.07948v4
- Date: Fri, 23 Oct 2020 03:04:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 13:36:50.927200
- Title: Personalized Federated Learning: A Meta-Learning Approach
- Title(参考訳): 個人化フェデレーション学習 : メタラーニングアプローチ
- Authors: Alireza Fallah, Aryan Mokhtari, Asuman Ozdaglar
- Abstract要約: フェデレートラーニング(Federated Learning)では、複数のコンピューティングユニット(ユーザ)にまたがるモデルをトレーニングすることを目的としています。
本稿では,現在あるいは新規利用者が自身のデータに対して1段階ないし数段階の勾配降下を実行することで,ローカルデータセットに容易に適応できるような,初歩的な共有モデルを見つけることを目標とする,フェデレーション学習のパーソナライズされたバリエーションについて検討する。
- 参考スコア(独自算出の注目度): 28.281166755509886
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Federated Learning, we aim to train models across multiple computing units
(users), while users can only communicate with a common central server, without
exchanging their data samples. This mechanism exploits the computational power
of all users and allows users to obtain a richer model as their models are
trained over a larger set of data points. However, this scheme only develops a
common output for all the users, and, therefore, it does not adapt the model to
each user. This is an important missing feature, especially given the
heterogeneity of the underlying data distribution for various users. In this
paper, we study a personalized variant of the federated learning in which our
goal is to find an initial shared model that current or new users can easily
adapt to their local dataset by performing one or a few steps of gradient
descent with respect to their own data. This approach keeps all the benefits of
the federated learning architecture, and, by structure, leads to a more
personalized model for each user. We show this problem can be studied within
the Model-Agnostic Meta-Learning (MAML) framework. Inspired by this connection,
we study a personalized variant of the well-known Federated Averaging algorithm
and evaluate its performance in terms of gradient norm for non-convex loss
functions. Further, we characterize how this performance is affected by the
closeness of underlying distributions of user data, measured in terms of
distribution distances such as Total Variation and 1-Wasserstein metric.
- Abstract(参考訳): フェデレーション学習では、複数のコンピューティングユニット(ユーザ)にまたがってモデルをトレーニングすることを目的としていますが、データサンプルを交換することなく、ユーザーは共通の中央サーバとしか通信できません。
このメカニズムは、すべてのユーザの計算能力を活用し、モデルがより大きなデータポイントのセットでトレーニングされることにより、よりリッチなモデルを得ることができる。
しかし、この方式はすべてのユーザに対して共通の出力しか開発しないため、各ユーザに対してモデルを適用できない。
特に、さまざまなユーザに対する基盤となるデータ分散の多様性を考えると、これは欠落している重要な機能である。
本稿では,現在あるいは新規利用者が自身のデータに対して1段階ないし数段階の勾配降下を実行することで,ローカルデータセットに容易に適応できるような,初期共有モデルを見つけることを目的とする,連邦学習のパーソナライズされたバリエーションについて検討する。
このアプローチは、連合学習アーキテクチャのすべての利点を保ち、構造上、各ユーザに対してよりパーソナライズされたモデルをもたらす。
この問題をモデル非依存メタ学習(maml)フレームワークで研究できることを示します。
この関係に触発されて,よく知られたフェデレーション平均化アルゴリズムのパーソナライズされた変種を調査し,非凸損失関数の勾配ノルムの観点からその性能を評価する。
さらに,総変動や1-wasserstein計量などの分布距離から測定したユーザデータの基盤分布の密接性が,この性能に与える影響を特徴付ける。
関連論文リスト
- MAP: Model Aggregation and Personalization in Federated Learning with Incomplete Classes [49.22075916259368]
一部の実世界のアプリケーションでは、データサンプルは通常、ローカルデバイスに分散される。
本稿では,クライアントが不完全なクラスを所有する特別なI.I.D.シーンに焦点を当てる。
提案するMAPアルゴリズムは,FLにおけるアグリゲーションとパーソナライゼーションの目標を同時に達成できる。
論文 参考訳(メタデータ) (2024-04-14T12:22:42Z) - Dirichlet-based Uncertainty Quantification for Personalized Federated
Learning with Improved Posterior Networks [9.54563359677778]
本稿では,グローバルおよびパーソナライズされたモデルの中からモデルを選択可能なフェデレーション学習への新たなアプローチを提案する。
これは、局所的およびグローバルな分布内および分布外データを検出するのに役立つ予測不確実性の慎重なモデリングによって達成される。
一般的な実世界の画像データセットに対する総合的な実験的評価は、アウト・オブ・ディストリビューション・データの存在下でのモデルの優れた性能を示している。
論文 参考訳(メタデータ) (2023-12-18T14:30:05Z) - Personalized Federated Learning through Local Memorization [10.925242558525683]
フェデレーション学習により、クライアントはデータをローカルに保ちながら、統計的モデルを協調的に学習することができる。
最近のパーソナライズされた学習方法は、他のクライアントで利用可能な知識を活用しながら、各クライアントに対して別々のモデルを訓練する。
本稿では,この手法が最先端手法よりも精度と公平性を著しく向上することを示す。
論文 参考訳(メタデータ) (2021-11-17T19:40:07Z) - A Personalized Federated Learning Algorithm: an Application in Anomaly
Detection [0.6700873164609007]
フェデレートラーニング(FL)は、データプライバシと送信問題を克服する有望な方法として最近登場した。
FLでは、異なるデバイスやセンサーから収集されたデータセットを使用して、各学習を集中型モデル(サーバ)と共有するローカルモデル(クライアント)をトレーニングする。
本稿では,PC-FedAvg(Personalized FedAvg, PC-FedAvg)を提案する。
論文 参考訳(メタデータ) (2021-11-04T04:57:11Z) - Federated Mixture of Experts [94.25278695272874]
FedMixは特別なモデルのアンサンブルをトレーニングできるフレームワークです。
類似したデータ特性を持つユーザが同じメンバーを選択して統計的強度を共有することを示す。
論文 参考訳(メタデータ) (2021-07-14T14:15:24Z) - Meta-HAR: Federated Representation Learning for Human Activity
Recognition [21.749861229805727]
ユビキタスコンピューティングにおいて,モバイルセンサに基づくヒューマンアクティビティ認識(HAR)が重要な役割を担っている。
本稿では,信号埋め込みネットワークをメタ学習した表現学習フレームワークMeta-HARを提案する。
埋め込みネットワークの表現能力を向上するため,ユーザ毎のHAR問題を別のタスクとして扱い,モデルに依存しないメタラーニングフレームワークを通じて共有埋め込みネットワークを訓練する。
論文 参考訳(メタデータ) (2021-05-31T11:04:39Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z) - Federated Mutual Learning [65.46254760557073]
Federated Mutual Leaning (FML)は、クライアントが汎用モデルとパーソナライズされたモデルを独立してトレーニングすることを可能にする。
実験により、FMLは一般的なフェデレート学習環境よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2020-06-27T09:35:03Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。