論文の概要: FedVG: Gradient-Guided Aggregation for Enhanced Federated Learning
- arxiv url: http://arxiv.org/abs/2602.21399v1
- Date: Tue, 24 Feb 2026 22:05:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.622396
- Title: FedVG: Gradient-Guided Aggregation for Enhanced Federated Learning
- Title(参考訳): FedVG: 強化されたフェデレーション学習のためのグラディエントガイドによる集約
- Authors: Alina Devkota, Jacob Thrasher, Donald Adjeroh, Binod Bhattarai, Prashnna K. Gyawali,
- Abstract要約: フェデレートラーニング(FL)は、プライベートデータを共有せずに、複数のクライアント間で協調的なモデルトレーニングを可能にする。
クライアント間のデータの異質性は、モデルの全体的な一般化性能を低下させるクライアントのドリフトにつながる。
我々は,新しい勾配に基づくフェデレーションアグリゲーションフレームワークであるFedVGを提案する。
- 参考スコア(独自算出の注目度): 7.6428960455933925
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) enables collaborative model training across multiple clients without sharing their private data. However, data heterogeneity across clients leads to client drift, which degrades the overall generalization performance of the model. This effect is further compounded by overemphasis on poorly performing clients. To address this problem, we propose FedVG, a novel gradient-based federated aggregation framework that leverages a global validation set to guide the optimization process. Such a global validation set can be established using readily available public datasets, ensuring accessibility and consistency across clients without compromising privacy. In contrast to conventional approaches that prioritize client dataset volume, FedVG assesses the generalization ability of client models by measuring the magnitude of validation gradients across layers. Specifically, we compute layerwise gradient norms to derive a client-specific score that reflects how much each client needs to adjust for improved generalization on the global validation set, thereby enabling more informed and adaptive federated aggregation. Extensive experiments on both natural and medical image benchmarking datasets, across diverse model architectures, demonstrate that FedVG consistently improves performance, particularly in highly heterogeneous settings. Moreover, FedVG is modular and can be seamlessly integrated with various state-of-the-art FL algorithms, often further improving their results. Our code is available at https://github.com/alinadevkota/FedVG.
- Abstract(参考訳): フェデレートラーニング(FL)は、プライベートデータを共有せずに、複数のクライアント間で協調的なモデルトレーニングを可能にする。
しかし、クライアント間のデータの異質性はクライアントのドリフトにつながるため、モデル全体の一般化性能は低下する。
この効果は、パフォーマンスの悪いクライアントに対する過剰なエンハンシスによってさらに複雑になる。
この問題に対処するため,我々は,グローバルな検証セットを活用して最適化プロセスを導出する,勾配に基づく新しいフェデレーションアグリゲーションフレームワークであるFedVGを提案する。
このようなグローバルな検証セットは、容易に利用可能な公開データセットを使用して確立することができ、プライバシを損なうことなく、クライアント間のアクセシビリティと一貫性を確保することができる。
クライアントデータセットのボリュームを優先する従来のアプローチとは対照的に、FedVGはレイヤ間の検証勾配の大きさを測定することによって、クライアントモデルの一般化能力を評価する。
具体的には、グローバルな検証セットの一般化を改善するために、各クライアントがどれだけ調整する必要があるかを反映したクライアント固有のスコアを導出するために、階層的に勾配のノルムを計算し、より情報と適応的な統合アグリゲーションを可能にする。
さまざまなモデルアーキテクチャにわたる、自然画像と医療画像のベンチマークデータセットに関する大規模な実験は、FedVGが、特に高度に異質な設定において、一貫してパフォーマンスを改善することを実証している。
さらに、FedVGはモジュール化されており、様々な最先端のFLアルゴリズムとシームレスに統合することができ、その結果をさらに改善することができる。
私たちのコードはhttps://github.com/alinadevkota/FedVG.comで利用可能です。
関連論文リスト
- CO-PFL: Contribution-Oriented Personalized Federated Learning for Heterogeneous Networks [51.43780477302533]
コントリビューション指向型PFL(CO-PFL)は,グローバルアグリゲーションに対する各クライアントのコントリビューションを動的に推定するアルゴリズムである。
CO-PFLは、パーソナライズ精度、堅牢性、スケーラビリティ、収束安定性において、最先端の手法を一貫して超越している。
論文 参考訳(メタデータ) (2025-10-23T05:10:06Z) - Generalized and Personalized Federated Learning with Foundation Models via Orthogonal Transformations [4.008780119020479]
Federated Learningは、集中的なデータ収集を必要とせずに、分散化されたクライアントやローカルデータを保持するデバイス間でモデルをトレーニングすることを目的としている。
我々は,ブラックボックス基盤モデルを活用した新しいアプローチであるFedOTを紹介する。
FedOTは、さまざまなクライアント間の勾配競合を緩和し、セマンティックな整合性を保持し、実質的なデータの存在下でも堅牢なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-05-26T12:18:24Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FedImpro: Measuring and Improving Client Update in Federated Learning [77.68805026788836]
フェデレートラーニング(FL)モデルは、不均一なデータによって引き起こされるクライアントのドリフトを経験することが多い。
我々は、クライアントのドリフトに対する別の視点を示し、改善されたローカルモデルを生成することにより、それを緩和することを目指している。
論文 参考訳(メタデータ) (2024-02-10T18:14:57Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - PGFed: Personalize Each Client's Global Objective for Federated Learning [7.810284483002312]
本稿では,各クライアントが自身のグローバルな目的をパーソナライズ可能な,パーソナライズされたFLフレームワークを提案する。
大規模な(O(N2))通信オーバーヘッドと潜在的なプライバシリークを回避するため、各クライアントのリスクは、他のクライアントの適応的リスクアグリゲーションの1次近似によって推定される。
異なるフェデレーション条件下での4つのデータセットに対する実験により,従来の最先端手法よりも一貫したPGFの改良が示された。
論文 参考訳(メタデータ) (2022-12-02T21:16:39Z) - Gradient Masked Averaging for Federated Learning [24.687254139644736]
フェデレートラーニングは、統一グローバルモデルの学習を協調するために、異種データを持つ多数のクライアントを可能にする。
標準FLアルゴリズムは、サーバのグローバルモデルを近似するために、モデルパラメータや勾配の更新を平均化する。
本稿では,クライアント更新の標準平均化の代替として,FLの勾配マスク平均化手法を提案する。
論文 参考訳(メタデータ) (2022-01-28T08:42:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。