論文の概要: Federated Ensemble Learning with Progressive Model Personalization
- arxiv url: http://arxiv.org/abs/2602.14244v1
- Date: Sun, 15 Feb 2026 17:35:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:49.837672
- Title: Federated Ensemble Learning with Progressive Model Personalization
- Title(参考訳): プログレッシブモデルパーソナライゼーションによるフェデレーション・アンサンブル学習
- Authors: Ala Emrani, Amir Najafi, Abolfazl Motahari,
- Abstract要約: Federated Learningは分散学習のためのプライバシ保護パラダイムを提供するが、クライアント間の統計的異質性に悩まされている。
PFLの広く採用されているアプローチは、ニューラルネットワークを共有特徴抽出器とクライアント固有のヘッドに分解する。
既存のほとんどの手法は厳密で浅い頭部に依存しており、そのため原則的にこのトレードオフをナビゲートすることができない。
我々はこのトレードオフを円滑に制御できるブースティングインスパイアされたフレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.1045253485823572
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning provides a privacy-preserving paradigm for distributed learning, but suffers from statistical heterogeneity across clients. Personalized Federated Learning (PFL) mitigates this issue by considering client-specific models. A widely adopted approach in PFL decomposes neural networks into a shared feature extractor and client-specific heads. While effective, this design induces a fundamental tradeoff: deep or expressive shared components hinder personalization, whereas large local heads exacerbate overfitting under limited per-client data. Most existing methods rely on rigid, shallow heads, and therefore fail to navigate this tradeoff in a principled manner. In this work, we propose a boosting-inspired framework that enables a smooth control of this tradeoff. Instead of training a single personalized model, we construct an ensemble of $T$ models for each client. Across boosting iterations, the depth of the personalized component are progressively increased, while its effective complexity is systematically controlled via low-rank factorization or width shrinkage. This design simultaneously limits overfitting and substantially reduces per-client bias by allowing increasingly expressive personalization. We provide theoretical analysis that establishes generalization bounds with favorable dependence on the average local sample size and the total number of clients. Specifically, we prove that the complexity of the shared layers is effectively suppressed, while the dependence on the boosting horizon $T$ is controlled through parameter reduction. Notably, we provide a novel nonlinear generalization guarantee for decoupled PFL models. Extensive experiments on benchmark and real-world datasets (e.g., EMNIST, CIFAR-10/100, and Sent140) demonstrate that the proposed framework consistently outperforms state-of-the-art PFL methods under heterogeneous data distributions.
- Abstract(参考訳): Federated Learningは分散学習のためのプライバシ保護パラダイムを提供するが、クライアント間の統計的異質性に悩まされている。
パーソナライズド・フェデレーション・ラーニング(PFL)は、クライアント固有のモデルを考慮することでこの問題を軽減する。
PFLの広く採用されているアプローチは、ニューラルネットワークを共有特徴抽出器とクライアント固有のヘッドに分解する。
深い、あるいは表現力のある共有コンポーネントはパーソナライゼーションを妨げるが、大きなローカルヘッドは、クライアント毎の限られたデータの下で過度に適合する。
既存のほとんどの手法は厳密で浅い頭部に依存しており、そのため原則的にこのトレードオフをナビゲートすることができない。
本研究では,このトレードオフを円滑に制御できるブースティング・インスパイアされたフレームワークを提案する。
単一のパーソナライズされたモデルをトレーニングする代わりに、各クライアントに対して$T$モデルのアンサンブルを構築します。
繰り返しの増大とともに、パーソナライズされたコンポーネントの深さは徐々に増加し、その効果的な複雑さは低ランクの分解や幅縮小によって体系的に制御される。
この設計は、過剰適合を同時に制限し、より表現力のあるパーソナライズを可能にすることによって、クライアント毎のバイアスを大幅に削減する。
平均局所サンプルサイズとクライアントの総数に依存して一般化境界を確立する理論的解析を行う。
具体的には,共有層の複雑性が効果的に抑制されることを証明し,その一方で,パラメータ還元により,ブースティング水平線への依存度を$T$とする。
特に、分離されたPFLモデルに対して、新しい非線形一般化保証を提供する。
ベンチマークと実世界のデータセット(例えばEMNIST, CIFAR-10/100, Sent140)の大規模な実験により、提案フレームワークは不均一なデータ分布下での最先端のPFL手法を一貫して上回っていることが示された。
関連論文リスト
- CO-PFL: Contribution-Oriented Personalized Federated Learning for Heterogeneous Networks [51.43780477302533]
コントリビューション指向型PFL(CO-PFL)は,グローバルアグリゲーションに対する各クライアントのコントリビューションを動的に推定するアルゴリズムである。
CO-PFLは、パーソナライズ精度、堅牢性、スケーラビリティ、収束安定性において、最先端の手法を一貫して超越している。
論文 参考訳(メタデータ) (2025-10-23T05:10:06Z) - FedPPA: Progressive Parameter Alignment for Personalized Federated Learning [0.9931624906346306]
フェデレートラーニング(FL)は、複数のクライアントがデータを共有せずに協調的にモデルをトレーニングできる、分散されたプライバシ保護機械学習パラダイムとして設計されている。
実世界のシナリオでは、クライアントは不均一な計算資源を持ち、非独立で同一の分散データ(非IID)を保持し、トレーニング中に重大な課題を生じさせる。
本稿では,クライアント間の共通レイヤの重み付けとグローバルモデルの重み付けを段階的に整合させるプログレッシブアライメント(FedPPA)を提案する。
MNIST、FMNIST、CIFAR-10を含む3つの画像分類データセットの実験は、FedPPAが既存のFLアルゴリズムより一貫して優れていることを示した。
論文 参考訳(メタデータ) (2025-10-16T14:03:05Z) - Hypernetworks for Model-Heterogeneous Personalized Federated Learning [13.408669475480824]
本稿では、クライアント固有の埋め込みベクトルを入力とし、各クライアントの異種モデルに合わせてパーソナライズされたパラメータを出力するサーバサイドハイパーネットワークを提案する。
知識共有の促進と計算の削減を目的として,ハイパーネットワーク内のマルチヘッド構造を導入し,類似のモデルサイズを持つクライアントがヘッドを共有できるようにする。
我々のフレームワークは外部データセットに依存しておらず、クライアントモデルアーキテクチャの開示を必要としない。
論文 参考訳(メタデータ) (2025-07-30T02:24:26Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Hybrid-Regularized Magnitude Pruning for Robust Federated Learning under Covariate Shift [2.298932494750101]
クライアント側トレーニング分布の不整合がフェデレート学習モデルの性能を著しく低下させることを示す。
本稿では,ニューラルネットワークの疎結合性,冗長性,堅牢性を改善するために,フラニングとクライアントトレーニングの正規化を組み合わせた新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-19T16:22:37Z) - Decentralized Directed Collaboration for Personalized Federated Learning [39.29794569421094]
我々は分散トレーニングモデル計算を行う分散パーソナライズドラーニング(DPFL)に集中する。
我々は, textbfDecentralized textbfFederated textbfPartial textbfGradient textbfPedGP を組み込んだ協調型フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-28T06:52:19Z) - FedImpro: Measuring and Improving Client Update in Federated Learning [77.68805026788836]
フェデレートラーニング(FL)モデルは、不均一なデータによって引き起こされるクライアントのドリフトを経験することが多い。
我々は、クライアントのドリフトに対する別の視点を示し、改善されたローカルモデルを生成することにより、それを緩和することを目指している。
論文 参考訳(メタデータ) (2024-02-10T18:14:57Z) - Confidence-aware Personalized Federated Learning via Variational
Expectation Maximization [34.354154518009956]
パーソナライズド・フェデレーション・ラーニング(PFL)のための新しいフレームワークを提案する。
PFLは、クライアント間で共有モデルをトレーニングする分散学習スキームである。
階層的モデリングと変分推論に基づくPFLの新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-21T20:12:27Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。