論文の概要: Personalized Federated Learning with Hidden Information on Personalized
Prior
- arxiv url: http://arxiv.org/abs/2211.10684v1
- Date: Sat, 19 Nov 2022 12:45:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 19:04:57.897518
- Title: Personalized Federated Learning with Hidden Information on Personalized
Prior
- Title(参考訳): 個人化事前情報を用いた個人化フェデレーション学習
- Authors: Mingjia Shi, Yuhao Zhou, Qing Ye, Jiancheng Lv
- Abstract要約: 本稿では,Bregmanの発散正規化を用いたモデル化のためのフレームワークであるpFedBreDを提案する。
実験の結果,提案手法は複数の公開ベンチマークにおいて他のPFLアルゴリズムよりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 18.8426865970643
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated learning (FL for simplification) is a distributed machine learning
technique that utilizes global servers and collaborative clients to achieve
privacy-preserving global model training without direct data sharing. However,
heterogeneous data problem, as one of FL's main problems, makes it difficult
for the global model to perform effectively on each client's local data. Thus,
personalized federated learning (PFL for simplification) aims to improve the
performance of the model on local data as much as possible. Bayesian learning,
where the parameters of the model are seen as random variables with a prior
assumption, is a feasible solution to the heterogeneous data problem due to the
tendency that the more local data the model use, the more it focuses on the
local data, otherwise focuses on the prior. When Bayesian learning is applied
to PFL, the global model provides global knowledge as a prior to the local
training process. In this paper, we employ Bayesian learning to model PFL by
assuming a prior in the scaled exponential family, and therefore propose
pFedBreD, a framework to solve the problem we model using Bregman divergence
regularization. Empirically, our experiments show that, under the prior
assumption of the spherical Gaussian and the first order strategy of mean
selection, our proposal significantly outcompetes other PFL algorithms on
multiple public benchmarks.
- Abstract(参考訳): フェデレートラーニング(Federated Learning, FL)は、グローバルサーバとコラボレーティブクライアントを利用して、直接的なデータ共有なしに、プライバシを保存するグローバルモデルトレーニングを実現する分散機械学習技術である。
しかし、FLの主な問題の一つである異種データ問題は、グローバルモデルが各クライアントのローカルデータに対して効果的に実行するのを困難にしている。
このように、パーソナライズド・フェデレーション・ラーニング(PFL)は、ローカルデータにおけるモデルの性能を可能な限り向上することを目的としている。
ベイズ学習(ベイズ学習、英: Bayesian learning、英: Bayesian learning)は、モデルのパラメータが事前の仮定でランダム変数と見なされる場合、モデルが使用する局所データが多いほど局所データに集中し、それ以外は先行データにフォーカスする傾向にあるため、不均一データ問題に対する実現可能な解である。
ベイズ学習がPFLに適用されるとき、グローバルモデルは、局所的なトレーニングプロセスの前のグローバルな知識を提供する。
本稿では,スケールした指数関数列の事前を仮定してpflをモデル化するベイズ学習を用いて,ブレグマン分岐正規化を用いてモデル化する問題を解くためのフレームワークであるpfedbredを提案する。
実験の結果,球面ガウスの事前仮定と平均選択の1次戦略により,提案手法が複数の公開ベンチマークにおいて他のpflアルゴリズムを大きく上回ることがわかった。
関連論文リスト
- FedMAP: Unlocking Potential in Personalized Federated Learning through Bi-Level MAP Optimization [11.040916982022978]
フェデレートラーニング(FL)は、分散データに基づく機械学習モデルの協調トレーニングを可能にする。
クライアント間でのデータはしばしば、クラス不均衡、特徴分散スキュー、サンプルサイズ不均衡、その他の現象によって大きく異なる。
本稿では,バイレベル最適化を用いた新しいベイズPFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T11:28:06Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - PRIOR: Personalized Prior for Reactivating the Information Overlooked in
Federated Learning [16.344719695572586]
各クライアントのグローバルモデルにパーソナライズされた事前知識を注入する新しいスキームを提案する。
提案したアプローチの中心は,Bregman Divergence (pFedBreD) による PFL フレームワークである。
提案手法は5つのデータセット上での最先端のパフォーマンスに到達し、8つのベンチマークで最大3.5%性能を向上する。
論文 参考訳(メタデータ) (2023-10-13T15:21:25Z) - PFL-GAN: When Client Heterogeneity Meets Generative Models in
Personalized Federated Learning [55.930403371398114]
パーソナライズドラーニング(PFL)のための新しいGAN(Generative Adversarial Network)の共有と集約戦略を提案する。
PFL-GANは、異なるシナリオにおけるクライアントの不均一性に対処する。より具体的には、まずクライアント間の類似性を学び、次に重み付けされた協調データアグリゲーションを開発する。
いくつかのよく知られたデータセットに対する厳密な実験による実験結果は、PFL-GANの有効性を示している。
論文 参考訳(メタデータ) (2023-08-23T22:38:35Z) - FedSoup: Improving Generalization and Personalization in Federated
Learning via Selective Model Interpolation [32.36334319329364]
クロスサイロフェデレーション学習(FL)は、データセンタに分散したデータセット上での機械学習モデルの開発を可能にする。
近年の研究では、現在のFLアルゴリズムは、分布シフトに直面した場合、局所的な性能とグローバルな性能のトレードオフに直面している。
地域とグローバルのパフォーマンスのトレードオフを最適化する新しいフェデレーションモデルスープ手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T00:07:29Z) - The Best of Both Worlds: Accurate Global and Personalized Models through
Federated Learning with Data-Free Hyper-Knowledge Distillation [17.570719572024608]
FedHKD (Federated Hyper-Knowledge Distillation) は、クライアントがローカルモデルを訓練するために知識蒸留に依存する新しいFLアルゴリズムである。
他のKDベースのpFLメソッドとは異なり、FedHKDはパブリックデータセットに依存したり、サーバに生成モデルをデプロイしたりしない。
さまざまなシナリオにおける視覚的データセットに関する広範な実験を行い、FedHKDがパーソナライズおよびグローバルモデルパフォーマンスの両方において、大幅な改善を提供することを示した。
論文 参考訳(メタデータ) (2023-01-21T16:20:57Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Personalized Federated Learning with Clustered Generalization [16.178571176116073]
学習環境における非I.D.データの困難な問題に対処することを目的とした,近年のパーソナライズドラーニング(PFL)について検討する。
訓練対象におけるPFL法と従来のFL法の主な違い
本稿では,FLにおける統計的不均一性の問題に対処するため,クラスタ化一般化という新しい概念を提案する。
論文 参考訳(メタデータ) (2021-06-24T14:17:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。