論文の概要: FedPURIN: Programmed Update and Reduced INformation for Sparse Personalized Federated Learning
- arxiv url: http://arxiv.org/abs/2510.16065v1
- Date: Fri, 17 Oct 2025 03:54:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.821565
- Title: FedPURIN: Programmed Update and Reduced INformation for Sparse Personalized Federated Learning
- Title(参考訳): FedPURIN: スパースパーソナライズされたフェデレーション学習のためのプログラム更新と情報削減
- Authors: Lunchen Xie, Zehua He, Qingjiang Shi,
- Abstract要約: プログラム更新と還元情報を用いたフェデレーション学習(FedPURIN)を提案する。
FedPURINは整数プログラミングの定式化を通じて送信する重要なパラメータを戦略的に識別する。
スパースアグリゲーション・スキームに統合され、有効性を保ちながら通信の大幅な削減を実現する。
- 参考スコア(独自算出の注目度): 25.55616766154517
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalized Federated Learning (PFL) has emerged as a critical research frontier addressing data heterogeneity issue across distributed clients. Novel model architectures and collaboration mechanisms are engineered to accommodate statistical disparities while producing client-specific models. Parameter decoupling represents a promising paradigm for maintaining model performance in PFL frameworks. However, the communication efficiency of many existing methods remains suboptimal, sustaining substantial communication burdens that impede practical deployment. To bridge this gap, we propose Federated Learning with Programmed Update and Reduced INformation (FedPURIN), a novel framework that strategically identifies critical parameters for transmission through an integer programming formulation. This mathematically grounded strategy is seamlessly integrated into a sparse aggregation scheme, achieving a significant communication reduction while preserving the efficacy. Comprehensive evaluations on standard image classification benchmarks under varied non-IID conditions demonstrate competitive performance relative to state-of-the-art methods, coupled with quantifiable communication reduction through sparse aggregation. The framework establishes a new paradigm for communication-efficient PFL, particularly advantageous for edge intelligence systems operating with heterogeneous data sources.
- Abstract(参考訳): パーソナライズド・フェデレーション・ラーニング(PFL)は、分散クライアント間のデータ不均一性問題に対処する重要な研究フロンティアとして登場した。
新たなモデルアーキテクチャと協調機構は、クライアント固有のモデルを作成しながら、統計的格差に対応するように設計されている。
パラメータ分離は、PFLフレームワークにおけるモデルパフォーマンスを維持するための有望なパラダイムである。
しかし,多くの既存手法の通信効率は相変わらず最適であり,実用化に支障をきたすほどの通信負担が持続している。
このギャップを埋めるために、整数プログラミングの定式化による伝達の重要なパラメータを戦略的に識別する新しいフレームワークであるFederated Learning with Programmed Update and Reduced Information (FedPURIN)を提案する。
この数学的基盤を持つ戦略はスパースアグリゲーションスキームにシームレスに統合され、有効性を保ちながら重要な通信削減を実現する。
非IID条件下での標準画像分類ベンチマークの総合的な評価は、スパースアグリゲーションによる定量化と相まって、最先端の手法と比較して競争性能を示す。
このフレームワークは通信効率の良いPFLのための新しいパラダイムを確立し、特に異種データソースで動作するエッジインテリジェンスシステムに有利である。
関連論文リスト
- CO-PFL: Contribution-Oriented Personalized Federated Learning for Heterogeneous Networks [51.43780477302533]
コントリビューション指向型PFL(CO-PFL)は,グローバルアグリゲーションに対する各クライアントのコントリビューションを動的に推定するアルゴリズムである。
CO-PFLは、パーソナライズ精度、堅牢性、スケーラビリティ、収束安定性において、最先端の手法を一貫して超越している。
論文 参考訳(メタデータ) (2025-10-23T05:10:06Z) - Intrinsic Training Signals for Federated Learning Aggregation [13.540945877050525]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散クライアント間で協調的なモデルトレーニングを可能にする。
この研究は、既存のトレーニング信号だけで効果的なモデルマージが達成できることを実証している。
論文 参考訳(メタデータ) (2025-07-09T13:03:23Z) - Efficient Federated Class-Incremental Learning of Pre-Trained Models via Task-agnostic Low-rank Residual Adaptation [22.454292668849035]
Fed-TaLoRA(Federated Task-Agnostic Low-rank Residual Adaptation)
我々は,最小限のオーバーヘッドで正確な知識統合を実現するための,新たな残量更新機構を開発した。
我々の方法論的革新は,タスク非依存適応,ポストアグリゲーションモデル校正,LORAモジュールの戦略的配置の3つの主要な戦略に起因している。
論文 参考訳(メタデータ) (2025-05-18T09:19:13Z) - Hybrid-Regularized Magnitude Pruning for Robust Federated Learning under Covariate Shift [2.298932494750101]
クライアント側トレーニング分布の不整合がフェデレート学習モデルの性能を著しく低下させることを示す。
本稿では,ニューラルネットワークの疎結合性,冗長性,堅牢性を改善するために,フラニングとクライアントトレーニングの正規化を組み合わせた新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-19T16:22:37Z) - SpaFL: Communication-Efficient Federated Learning with Sparse Models and Low computational Overhead [75.87007729801304]
SpaFL: 計算オーバーヘッドの少ないスパースモデル構造を最適化する通信効率のよいFLフレームワークを提案する。
プルーニングプロセス自体を最適化するためには、パラメータの代わりにサーバとクライアントの間でしきい値だけが通信される。
グローバルしきい値は、集約されたパラメータの重要度を抽出することで、モデルパラメータの更新に使用される。
論文 参考訳(メタデータ) (2024-06-01T13:10:35Z) - Hierarchical Federated Learning in Multi-hop Cluster-Based VANETs [12.023861154677205]
本稿では,マルチホップクラスタリングに基づくVANET上での階層型フェデレーション学習(HFL)のための新しいフレームワークを提案する。
提案手法は,FLモデルパラメータの平均相対速度とコサイン類似度の重み付けをクラスタリング指標として用いる。
大規模なシミュレーションにより,クラスタ化VANET上での階層型フェデレーション学習が,精度と収束時間を大幅に向上させることを示した。
論文 参考訳(メタデータ) (2024-01-18T20:05:34Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - Tensor Decomposition based Personalized Federated Learning [12.420951968273574]
Federated Learning(FL)は、ユーザのプライベートデータを収集することなく、確実に協調的なトレーニングを実現する、新しい分散機械学習フレームワークである。
FLの頻繁なコミュニケーションと平均集約戦略により、統計多様性データや大規模モデルへのスケーリングが困難になる。
本稿では,分解に基づくパーソナライズドラーニング(TDPFed)と呼ばれるFLフレームワークを提案する。このフレームワークでは,テンソル化線形層と畳み込み層を持つ新しいテンソル化局所モデルを設計し,通信コストを削減する。
論文 参考訳(メタデータ) (2022-08-27T08:09:14Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。