論文の概要: Towards Performance-Enhanced Model-Contrastive Federated Learning using Historical Information in Heterogeneous Scenarios
- arxiv url: http://arxiv.org/abs/2602.11945v1
- Date: Thu, 12 Feb 2026 13:40:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.845758
- Title: Towards Performance-Enhanced Model-Contrastive Federated Learning using Historical Information in Heterogeneous Scenarios
- Title(参考訳): 不均質シナリオにおける履歴情報を用いた性能向上型モデル比較フェデレーション学習に向けて
- Authors: Hongliang Zhang, Jiguo Yu, Guijuan Wang, Wenshuo Ma, Tianqing He, Baobao Chai, Chunqiang Hu,
- Abstract要約: フェデレートラーニング(FL)は、複数のノードが生データを共有せずに協調的にモデルをトレーニングすることを可能にする。
本稿では,過去の学習情報を用いた性能向上型モデルコントラスト学習フレームワークPMFLを提案する。
- 参考スコア(独自算出の注目度): 13.567036484228344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) enables multiple nodes to collaboratively train a model without sharing raw data. However, FL systems are usually deployed in heterogeneous scenarios, where nodes differ in both data distributions and participation frequencies, which undermines the FL performance. To tackle the above issue, this paper proposes PMFL, a performance-enhanced model-contrastive federated learning framework using historical training information. Specifically, on the node side, we design a novel model-contrastive term into the node optimization objective by incorporating historical local models to capture stable contrastive points, thereby improving the consistency of model updates in heterogeneous data distributions. On the server side, we utilize the cumulative participation count of each node to adaptively adjust its aggregation weight, thereby correcting the bias in the global objective caused by different node participation frequencies. Furthermore, the updated global model incorporates historical global models to reduce its fluctuations in performance between adjacent rounds. Extensive experiments demonstrate that PMFL achieves superior performance compared with existing FL methods in heterogeneous scenarios.
- Abstract(参考訳): フェデレートラーニング(FL)は、複数のノードが生データを共有せずに協調的にモデルをトレーニングすることを可能にする。
しかし、FLシステムは通常、ノードがデータ分散と参加周波数の両方が異なる異種シナリオで展開され、FL性能を損なう。
そこで本研究では,過去の学習情報を用いた性能向上型モデルコントラスト学習フレームワークPMFLを提案する。
具体的には,ノード側において,従来の局所モデルを組み込んで安定なコントラスト点を抽出し,不均一なデータ分布におけるモデル更新の整合性を改善することにより,ノード最適化の目的に新たなモデルコントラスト項を設計する。
サーバ側では,各ノードの累積参加数を用いてアグリゲーションの重み付けを適応的に調整し,ノードの参加頻度の違いによる大域的目標のバイアスを補正する。
さらに、更新されたグローバルモデルには、隣接するラウンド間のパフォーマンスの変動を低減するために、歴史的なグローバルモデルが組み込まれている。
PMFLは異種シナリオにおける既存のFL法と比較して優れた性能を示す。
関連論文リスト
- FedDPC : Handling Data Heterogeneity and Partial Client Participation in Federated Learning [0.0]
FedDPCはFLトレーニングとグローバルモデル性能を改善するために設計された新しいFL手法である。
我々は,FedDPCが,訓練損失の低減と通信ラウンド間のテスト精度の向上を達成し,最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2025-12-23T12:57:27Z) - SEAFL: Enhancing Efficiency in Semi-Asynchronous Federated Learning through Adaptive Aggregation and Selective Training [26.478852701376294]
半非同期FLにおけるストラグラーと古いモデルの課題を緩和するために設計された新しいFLフレームワークであるSEAFLを提案する。
Em SEAFLは、現在のグローバルモデルに対する安定性と重要性に基づいて、アグリゲーション中にアップロードされたモデルに重みを動的に割り当てる。
我々は,3つのベンチマークデータセットを用いた広範囲な実験により,SEAFLの有効性を評価する。
論文 参考訳(メタデータ) (2025-02-22T05:13:53Z) - FedEP: Tailoring Attention to Heterogeneous Data Distribution with Entropy Pooling for Decentralized Federated Learning [8.576433180938004]
フェデレートラーニング(FL)における非独立分散(非IID)データは、クライアントの問題を引き起こす。
既存のアプローチでは、この問題を中央サーバを使ってFLで緩和するが、Decentralized FL (DFL) は未調査のままである。
本研究は,DFLにおける非IID課題を軽減するためのフェデレートエントロピープーリング(FedEP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-10T07:39:15Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Stragglers-Aware Low-Latency Synchronous Federated Learning via Layer-Wise Model Updates [71.81037644563217]
同期フェデレーションラーニング(FL)は、協調エッジラーニングの一般的なパラダイムである。
一部のデバイスは計算資源が限られており、様々な可用性があるため、FLレイテンシはストラグラーに非常に敏感である。
本稿では,NNの最適化手法をバックプロパゲーションにより活用し,グローバルモデルを階層的に更新するストラグラー対応層対応学習(SALF)を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:14:36Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - EvoFed: Leveraging Evolutionary Strategies for Communication-Efficient
Federated Learning [15.124439914522693]
Federated Learning(FL)は分散ノード間の協調モデルトレーニングを可能にする分散機械学習パラダイムである。
本稿では,進化戦略(ES)をFLと統合し,これらの課題に対処する新しいアプローチであるEvoFedを提案する。
論文 参考訳(メタデータ) (2023-11-13T17:25:06Z) - FedSoup: Improving Generalization and Personalization in Federated
Learning via Selective Model Interpolation [32.36334319329364]
クロスサイロフェデレーション学習(FL)は、データセンタに分散したデータセット上での機械学習モデルの開発を可能にする。
近年の研究では、現在のFLアルゴリズムは、分布シフトに直面した場合、局所的な性能とグローバルな性能のトレードオフに直面している。
地域とグローバルのパフォーマンスのトレードオフを最適化する新しいフェデレーションモデルスープ手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T00:07:29Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。