論文の概要: FedPrism: Adaptive Personalized Federated Learning under Non-IID Data
- arxiv url: http://arxiv.org/abs/2603.08252v2
- Date: Tue, 10 Mar 2026 06:22:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 12:59:13.118379
- Title: FedPrism: Adaptive Personalized Federated Learning under Non-IID Data
- Title(参考訳): FedPrism:非IIDデータに基づく適応型個人化フェデレーション学習
- Authors: Prakash Kumbhakar, Shrey Srivastava, Haroon R Lone,
- Abstract要約: FedPrismは、各クライアントのモデルを3つの部分から構築するフレームワークである。
Prism Decompositionメソッドを使用して、各クライアントのモデルを3つの部分から構築する。
また、Dual-Streamデザインを使用しており、地元のスペシャリストと一緒に一般的なモデルを実行している。
- 参考スコア(独自算出の注目度): 1.299941371793082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) suffers significant performance degradation in real-world deployments characterized by moderate to extreme statistical heterogeneity (non-IID client data). While global aggregation strategies promote broad generalization, they often fail to capture the diversity of local data distributions, leading to suboptimal personalization. We address this problem with FedPrism, a framework that uses two main strategies. First, it uses a Prism Decomposition method that builds each client's model from three parts: a global foundation, a shared group part for similar clients, and a private part for unique local data. This allows the system to group similar users together automatically and adapt if their data changes. Second, we include a Dual-Stream design that runs a general model alongside a local specialist. The system routes predictions between the general model and the local specialist based on the specialist's confidence. Through systematic experiments on non-IID data partitions, we demonstrate that FedPrism exceeds static aggregation and hard-clustering baselines, achieving significant accuracy gains under high heterogeneity. These results establish FedPrism as a robust and flexible solution for federated learning in heterogeneous environments, effectively balancing generalizable knowledge with adaptive personalization.
- Abstract(参考訳): フェデレートラーニング(FL)は、中等度から極端な統計的不均一性(非IIDクライアントデータ)を特徴とする実世界の展開において、大幅な性能低下を被る。
グローバルアグリゲーション戦略は広範な一般化を促進するが、しばしばローカルなデータ分布の多様性を捉えず、最適以下のパーソナライゼーションをもたらす。
2つの主要な戦略を使用するフレームワークであるFedPrismでこの問題に対処する。
まず、Prism Decompositionメソッドを使用して、グローバルファウンデーション、類似したクライアントのための共有グループ部分、ユニークなローカルデータのためのプライベート部分の3つの部分から、各クライアントのモデルを構築する。
これにより、類似したユーザが自動的にグループ化され、データが変更されても適応できる。
第2に、ローカルスペシャリストと一緒に汎用モデルを実行するDual-Streamの設計を含めます。
本システムは,専門家の信頼度に基づいて,一般モデルと地域スペシャリスト間の予測をルーティングする。
非IIDデータ分割に関する系統的な実験を通じて、FedPrismが静的凝集およびハードクラスタリングベースラインを超え、高い不均一性の下でかなりの精度のゲインを達成することを示した。
これらの結果はFedPrismを異種環境におけるフェデレーション学習のための堅牢で柔軟なソリューションとして確立し、一般化可能な知識と適応的なパーソナライズとを効果的にバランスさせる。
関連論文リスト
- Local Performance vs. Out-of-Distribution Generalization: An Empirical Analysis of Personalized Federated Learning in Heterogeneous Data Environments [3.186130813218338]
本研究は,その局所的性能と一般化能力の両方を包含して,フェデレートラーニングアプローチを徹底的に評価することを含む。
本稿では、FLIU (Federated Learning with individualized Updates) に指定されたFedAvgの修正手法を提案し、適応的パーソナライゼーション係数でアルゴリズムをパーソナライゼーションステップで拡張する。
論文 参考訳(メタデータ) (2025-10-28T15:15:14Z) - Fed-REACT: Federated Representation Learning for Heterogeneous and Evolving Data [19.33095080645165]
Fed-REACTは、異種および進化するクライアントデータ用に設計されたフェデレート学習フレームワークである。
本稿では,表現学習段階の理論解析を行い,実世界のデータセットにおいてFed-REACTが優れた精度とロバスト性を達成することを実証した。
論文 参考訳(メタデータ) (2025-09-08T20:24:40Z) - FedHiP: Heterogeneity-Invariant Personalized Federated Learning Through Closed-Form Solutions [22.424881385529783]
我々は、勾配に基づく更新を避けるために、解析的(つまり、クローズドフォーム)な解を通じて、FedHiPと呼ばれる不均質不変な個人化フェデレーション学習スキームを提案する。
提案手法は,分析的局所学習,分析的グローバルアグリゲーション,分析的局所パーソナライゼーションの3段階を含む。
ベンチマークデータセットの実験は、我々のFedHiPスキームの優位性を検証し、最先端のベースラインを少なくとも5.79%-20.97%の精度で上回った。
論文 参考訳(メタデータ) (2025-08-06T14:15:57Z) - Generalized and Personalized Federated Learning with Foundation Models via Orthogonal Transformations [4.008780119020479]
Federated Learningは、集中的なデータ収集を必要とせずに、分散化されたクライアントやローカルデータを保持するデバイス間でモデルをトレーニングすることを目的としている。
我々は,ブラックボックス基盤モデルを活用した新しいアプローチであるFedOTを紹介する。
FedOTは、さまざまなクライアント間の勾配競合を緩和し、セマンティックな整合性を保持し、実質的なデータの存在下でも堅牢なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-05-26T12:18:24Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - FedImpro: Measuring and Improving Client Update in Federated Learning [77.68805026788836]
フェデレートラーニング(FL)モデルは、不均一なデータによって引き起こされるクライアントのドリフトを経験することが多い。
我々は、クライアントのドリフトに対する別の視点を示し、改善されたローカルモデルを生成することにより、それを緩和することを目指している。
論文 参考訳(メタデータ) (2024-02-10T18:14:57Z) - Unlocking the Potential of Prompt-Tuning in Bridging Generalized and
Personalized Federated Learning [49.72857433721424]
Vision Transformer (ViT) と Visual Prompt Tuning (VPT) は、様々なコンピュータビジョンタスクの効率を改善して最先端のパフォーマンスを実現する。
本稿では,GFL(Generalized FL)とPFL(Personalized FL)を組み合わせた新しいアルゴリズムSGPTを提案する。
論文 参考訳(メタデータ) (2023-10-27T17:22:09Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。