論文の概要: Federated Gaussian Process: Convergence, Automatic Personalization and
Multi-fidelity Modeling
- arxiv url: http://arxiv.org/abs/2111.14008v1
- Date: Sun, 28 Nov 2021 00:17:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 15:16:30.914944
- Title: Federated Gaussian Process: Convergence, Automatic Personalization and
Multi-fidelity Modeling
- Title(参考訳): フェデレートガウス過程:収束、自動パーソナライゼーション、多元性モデリング
- Authors: Xubo Yue, Raed Al Kontar
- Abstract要約: textttFGPRは、プライバシー保護のための多要素データモデリングにおいて有望なアプローチであることを示す。
textttFGPRは幅広いアプリケーションで優れており、プライバシー保護のための多要素データモデリングにおいて有望なアプローチであることを示す。
- 参考スコア(独自算出の注目度): 4.18804572788063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose \texttt{FGPR}: a Federated Gaussian process
($\mathcal{GP}$) regression framework that uses an averaging strategy for model
aggregation and stochastic gradient descent for local client computations.
Notably, the resulting global model excels in personalization as \texttt{FGPR}
jointly learns a global $\mathcal{GP}$ prior across all clients. The predictive
posterior then is obtained by exploiting this prior and conditioning on local
data which encodes personalized features from a specific client. Theoretically,
we show that \texttt{FGPR} converges to a critical point of the full
log-likelihood function, subject to statistical error. Through extensive case
studies we show that \texttt{FGPR} excels in a wide range of applications and
is a promising approach for privacy-preserving multi-fidelity data modeling.
- Abstract(参考訳): 本稿では,モデルアグリゲーションのための平均化戦略と局所的なクライアント計算のための確率的勾配降下を用いる,フェデレートガウス過程の回帰フレームワークである \texttt{fgpr}: a federated gaussian process ($\mathcal{gp}$) を提案する。
特に、結果のグローバルモデルはパーソナライズに優れており、 \texttt{FGPR} はすべてのクライアントで大域的な $\mathcal{GP}$ を同時に学習する。
予測後部は、この事前を利用して、特定のクライアントからパーソナライズされた特徴を符号化するローカルデータに条件付けすることで得られる。
理論的には, {\displaystyle \texttt{FGPR} は全ログ様関数の臨界点に収束し,統計的誤差が生じる。
広範囲にわたるケーススタディを通じて、 \texttt{FGPR} は幅広いアプリケーションで優れており、プライバシー保護のための多要素データモデリングにおいて有望なアプローチであることを示す。
関連論文リスト
- FedImpro: Measuring and Improving Client Update in Federated Learning [77.68805026788836]
フェデレートラーニング(FL)モデルは、不均一なデータによって引き起こされるクライアントのドリフトを経験することが多い。
我々は、クライアントのドリフトに対する別の視点を示し、改善されたローカルモデルを生成することにより、それを緩和することを目指している。
論文 参考訳(メタデータ) (2024-02-10T18:14:57Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Federated Variational Inference: Towards Improved Personalization and
Generalization [2.37589914835055]
我々は、ステートレスなクロスデバイス・フェデレーション学習環境におけるパーソナライズと一般化について研究する。
まず階層的生成モデルを提案し,ベイズ推論を用いて定式化する。
次に、変分推論を用いてこの過程を近似し、モデルを効率的に訓練する。
我々は,FEMNISTとCIFAR-100画像分類のモデルを評価し,FedVIが両タスクの最先端性に勝っていることを示す。
論文 参考訳(メタデータ) (2023-05-23T04:28:07Z) - FedHB: Hierarchical Bayesian Federated Learning [11.936836827864095]
フェデレートラーニング(FL)に対する新しい階層的ベイズ的アプローチを提案する。
本モデルは階層ベイズモデルを用いてクライアントの局所データの生成過程を合理的に記述する。
ブロック座標FLアルゴリズムは、O(sqrtt)$の速度で目的の最適値に収束することを示す。
論文 参考訳(メタデータ) (2023-05-08T18:21:41Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Robust One Round Federated Learning with Predictive Space Bayesian
Inference [19.533268415744338]
クライアントの予測後部を用いて,グローバルな予測後部を近似する方法を示す。
本稿では,各クライアントでMCMCサンプリングを行い,局所的な後部推定を行い,それらを1ラウンドで集約し,大域的なアンサンブルモデルを得るアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-20T01:06:59Z) - Global Convergence of Federated Learning for Mixed Regression [17.8469597916875]
本稿では,クライアントがクラスタ構造を示す場合のフェデレートラーニングにおけるモデルトレーニングの問題について検討する。
我々の分析における重要な革新はクラスタリングに関する一様見積であり、一般的な概念クラスを束縛することでVC次元を束縛することで証明する。
論文 参考訳(メタデータ) (2022-06-15T03:38:42Z) - Federated Bayesian Neural Regression: A Scalable Global Federated
Gaussian Process [21.872163101238705]
Federated Bayesian Neural Regression (FedBNR)は、クライアントのプライバシを尊重するスケーラブルなスタンドアロングローバルGPを学習するアルゴリズムである。
すべてのクライアントデータが集中しているかのように、グローバルな予測モデルを学ぶという原則的なアプローチを導出します。
実世界の回帰データセットを用いて実験を行い、他のGPモデルと比較して統計的に有意な改善を示した。
論文 参考訳(メタデータ) (2022-06-13T17:52:58Z) - FedAvg with Fine Tuning: Local Updates Lead to Representation Learning [54.65133770989836]
Federated Averaging (FedAvg)アルゴリズムは、クライアントノードでのいくつかのローカルな勾配更新と、サーバでのモデル平均更新の交互化で構成されている。
我々は、FedAvgの出力の一般化の背景には、クライアントのタスク間の共通データ表現を学習する能力があることを示す。
異種データを用いたフェデレーション画像分類におけるFedAvgの表現学習能力を示す実証的証拠も提供する。
論文 参考訳(メタデータ) (2022-05-27T00:55:24Z) - DP-NormFedAvg: Normalizing Client Updates for Privacy-Preserving
Federated Learning [48.064786028195506]
我々は,クライアントに対して,大局的な情報の観点から,テキスト単位のみを定量化したバージョンを送信させることを提案する。
また、単位ノルムの新しい微分プライベート量子化機構であるQTDLを導入する。
論文 参考訳(メタデータ) (2021-06-13T21:23:46Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。