論文の概要: Personalized Federated Learning via Gaussian Generative Modeling
- arxiv url: http://arxiv.org/abs/2603.11620v1
- Date: Thu, 12 Mar 2026 07:26:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.946847
- Title: Personalized Federated Learning via Gaussian Generative Modeling
- Title(参考訳): ガウス生成モデルによる個人化フェデレーション学習
- Authors: Peng Hu, Jianwei Ma,
- Abstract要約: フェデレートラーニングは、本質的に分散されたクライアントデータに基づいて、モデルを協調的にトレーニングすることを目的としている。
ガウス生成モデルに基づくpFedGMを提案する。
pFedGMは最先端の手法に比べて優れた性能と競争性能を示す。
- 参考スコア(独自算出の注目度): 18.268671025343696
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning has emerged as a paradigm to train models collaboratively on inherently distributed client data while safeguarding privacy. In this context, personalized federated learning tackles the challenge of data heterogeneity by equipping each client with a dedicated model. A prevalent strategy decouples the model into a shared feature extractor and a personalized classifier head, where the latter actively guides the representation learning. However, previous works have focused on classifier head-guided personalization, neglecting the potential personalized characteristics in the representation distribution. Building on this insight, we propose pFedGM, a method based on Gaussian generative modeling. The approach begins by training a Gaussian generator that models client heterogeneity via weighted re-sampling. A balance between global collaboration and personalization is then struck by employing a dual objective: a shared objective that maximizes inter-class distance across clients, and a local objective that minimizes intra-class distance within them. To achieve this, we decouple the conventional Gaussian classifier into a navigator for global optimization, and a statistic extractor for capturing distributional statistics. Inspired by the Kalman gain, the algorithm then employs a dual-scale fusion framework at global and local levels to equip each client with a personalized classifier head. In this framework, we model the global representation distribution as a prior and the client-specific data as the likelihood, enabling Bayesian inference for class probability estimation. The evaluation covers a comprehensive range of scenarios: heterogeneity in class counts, environmental corruption, and multiple benchmark datasets and configurations. pFedGM achieves superior or competitive performance compared to state-of-the-art methods.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)は、プライバシを保護しながら、本質的に分散されたクライアントデータに基づいてモデルを協調的にトレーニングするパラダイムとして登場した。
この文脈では、パーソナライズド・フェデレーションド・ラーニングは、各クライアントに専用のモデルを設けることで、データ不均一性の問題に取り組む。
一般的な戦略は、モデルを共有特徴抽出器とパーソナライズされた分類器ヘッドに分離し、後者が表現学習を積極的に導く。
しかし、従来の研究は、表現分布における潜在的パーソナライズ特性を無視して、分類器の頭部誘導パーソナライズに焦点を当てていた。
この知見に基づいて,ガウス生成モデルに基づく手法であるpFedGMを提案する。
このアプローチは、重み付けされた再サンプリングを通じてクライアントの不均一性をモデル化するガウスジェネレータをトレーニングすることから始まる。
グローバルなコラボレーションとパーソナライゼーションのバランスは、クライアント間のクラス間距離を最大化する共有目的と、クラス内のクラス間距離を最小化するローカル目的の2つの目的を採用することによって達成される。
これを実現するために、従来のガウス分類器をグローバル最適化のためのナビゲータと分布統計をキャプチャする統計抽出器に分離する。
カルマンゲインにインスパイアされたアルゴリズムは、グローバルとローカルのレベルで2段階の融合フレームワークを使用して、各クライアントにパーソナライズされた分類器ヘッドを装備する。
本稿では,グローバルな表現分布を事前として,クライアント固有のデータを可能性としてモデル化し,クラス確率推定のためのベイズ推定を可能にする。
評価は、クラスカウントの不均一性、環境汚染、複数のベンチマークデータセットと設定など、包括的なシナリオをカバーする。
pFedGMは最先端の手法に比べて優れた性能または競争力を発揮する。
関連論文リスト
- Not All Clients Are Equal: Collaborative Model Personalization on Heterogeneous Multi-Modal Clients [59.52341877720199]
計算コストを伴わずに異種アーキテクチャ間の知識共有を可能にするFedMosaicを提案する。
実世界のタスクの多様性を模倣するために,40の異なるタスクにまたがるマルチモーダルPFLベンチマークを提案する。
実証研究は、FedMosaicが最先端のPFL法より優れていることを示している。
論文 参考訳(メタデータ) (2025-05-20T09:17:07Z) - FedHERO: A Federated Learning Approach for Node Classification Task on Heterophilic Graphs [55.51300642911766]
Federated Graph Learning(FGL)は、クライアントがグラフニューラルネットワーク(GNN)を分散的にトレーニングすることを可能にする。
FGL法は通常、全てのクライアントが所有するグラフデータが、類似したノードの分布パターンを保証するためにホモフィリックであることが要求される。
異種グラフからの洞察を効果的に活用し、共有するために設計されたFGLフレームワークであるFedHEROを提案する。
論文 参考訳(メタデータ) (2025-04-29T22:23:35Z) - Personalized Federated Learning via Feature Distribution Adaptation [3.410799378893257]
Federated Learning(FL)は、分散クライアントデータセット間の共通性を利用してグローバルモデルをトレーニングする分散学習フレームワークである。
パーソナライズド・フェデレーション・ラーニング(PFL)は、各クライアントに適した個々のモデルを学習することで、この問題に対処しようとしている。
我々は,グローバルな生成型分類器を局所的な特徴分布に適応させることで,パーソナライズされたモデルを効率的に生成するアルゴリズム,pFedFDAを提案する。
論文 参考訳(メタデータ) (2024-11-01T03:03:52Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Personalized Federated Learning with Feature Alignment and Classifier
Collaboration [13.320381377599245]
データの不均一性は、フェデレートラーニングにおける最も難しい問題の1つです。
ディープニューラルネットワークベースのタスクにおけるそのようなアプローチの1つは、共有された特徴表現を採用し、クライアントごとにカスタマイズされた分類子ヘッドを学ぶことである。
本研究では,グローバルなセマンティックな知識を活用して,より優れた表現を学習することで,ローカル・グローバルな特徴アライメントを実現する。
論文 参考訳(メタデータ) (2023-06-20T19:58:58Z) - Federated Variational Inference: Towards Improved Personalization and
Generalization [2.37589914835055]
我々は、ステートレスなクロスデバイス・フェデレーション学習環境におけるパーソナライズと一般化について研究する。
まず階層的生成モデルを提案し,ベイズ推論を用いて定式化する。
次に、変分推論を用いてこの過程を近似し、モデルを効率的に訓練する。
我々は,FEMNISTとCIFAR-100画像分類のモデルを評価し,FedVIが両タスクの最先端性に勝っていることを示す。
論文 参考訳(メタデータ) (2023-05-23T04:28:07Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Personalized Federated Learning through Local Memorization [10.925242558525683]
フェデレーション学習により、クライアントはデータをローカルに保ちながら、統計的モデルを協調的に学習することができる。
最近のパーソナライズされた学習方法は、他のクライアントで利用可能な知識を活用しながら、各クライアントに対して別々のモデルを訓練する。
本稿では,この手法が最先端手法よりも精度と公平性を著しく向上することを示す。
論文 参考訳(メタデータ) (2021-11-17T19:40:07Z) - Personalized Federated Learning with First Order Model Optimization [76.81546598985159]
そこで我々は,各クライアントが他のクライアントと連携して,クライアント固有の目的ごとのより強力なモデルを得る,フェデレーション学習の代替案を提案する。
基礎となるデータ分布やクライアントの類似性に関する知識を前提とせず、各クライアントが関心のある任意のターゲット分布を最適化できるようにします。
この手法は既存の代替品を上回り、ローカルデータ配信以外の転送のようなパーソナライズされたFLの新機能を可能にする。
論文 参考訳(メタデータ) (2020-12-15T19:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。