論文の概要: Tackling Resource-Constrained and Data-Heterogeneity in Federated Learning with Double-Weight Sparse Pack
- arxiv url: http://arxiv.org/abs/2601.01840v1
- Date: Mon, 05 Jan 2026 07:03:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.833251
- Title: Tackling Resource-Constrained and Data-Heterogeneity in Federated Learning with Double-Weight Sparse Pack
- Title(参考訳): 2重スパースパックを用いたフェデレーション学習における資源制約とデータヘテロジニティの対応
- Authors: Qiantao Yang, Liquan Chen, Mingfu Xue, Songze Li,
- Abstract要約: フェデレートラーニングは研究者から広く関心を集めているが、エッジクライアント間のデータの均一性は依然として重要な課題である。
本稿では,コサインスペーシフィケーションパラメータのパッキングと二重重み付きアグリゲーションに基づく,パーソナライズされたフェデレーション学習手法を提案する。
- 参考スコア(独自算出の注目度): 23.772570707484746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning has drawn widespread interest from researchers, yet the data heterogeneity across edge clients remains a key challenge, often degrading model performance. Existing methods enhance model compatibility with data heterogeneity by splitting models and knowledge distillation. However, they neglect the insufficient communication bandwidth and computing power on the client, failing to strike an effective balance between addressing data heterogeneity and accommodating limited client resources. To tackle this limitation, we propose a personalized federated learning method based on cosine sparsification parameter packing and dual-weighted aggregation (FedCSPACK), which effectively leverages the limited client resources and reduces the impact of data heterogeneity on model performance. In FedCSPACK, the client packages model parameters and selects the most contributing parameter packages for sharing based on cosine similarity, effectively reducing bandwidth requirements. The client then generates a mask matrix anchored to the shared parameter package to improve the alignment and aggregation efficiency of sparse updates on the server. Furthermore, directional and distribution distance weights are embedded in the mask to implement a weighted-guided aggregation mechanism, enhancing the robustness and generalization performance of the global model. Extensive experiments across four datasets using ten state-of-the-art methods demonstrate that FedCSPACK effectively improves communication and computational efficiency while maintaining high model accuracy.
- Abstract(参考訳): フェデレーション学習は研究者から広く関心を集めているが、エッジクライアント間のデータの均一性は依然として重要な課題であり、しばしばモデルのパフォーマンスを低下させる。
既存の手法は、モデル分割と知識蒸留により、データ不均一性とのモデル互換性を高める。
しかし、クライアント上での通信帯域幅と計算能力の不足は無視され、データの不均一性への対処と限られたクライアントリソースとの効果的なバランスが取れなかった。
この制限に対処するために,コサインスペーシフィケーションパラメータパッキングと二重重み付けアグリゲーション(FedCSPACK)に基づくパーソナライズされたフェデレーション学習手法を提案する。
FedCSPACKでは、クライアントがパラメータをパッケージ化し、コサインの類似性に基づいて共有するための最もコントリビュートなパラメータパッケージを選択し、バンド幅の要求を効果的に低減する。
クライアントは、共有パラメータパッケージに固定されたマスクマトリックスを生成し、サーバ上のスパース更新のアライメントとアグリゲーション効率を改善する。
さらに、マスク内に方向と分布距離の重みを埋め込み、重み付き誘導凝集機構を実装し、グローバルモデルのロバスト性および一般化性能を高める。
10つの最先端手法による4つのデータセットにわたる大規模な実験により、FedCSPACKは高いモデル精度を維持しながら、コミュニケーションと計算効率を効果的に向上することを示した。
関連論文リスト
- CO-PFL: Contribution-Oriented Personalized Federated Learning for Heterogeneous Networks [51.43780477302533]
コントリビューション指向型PFL(CO-PFL)は,グローバルアグリゲーションに対する各クライアントのコントリビューションを動的に推定するアルゴリズムである。
CO-PFLは、パーソナライズ精度、堅牢性、スケーラビリティ、収束安定性において、最先端の手法を一貫して超越している。
論文 参考訳(メタデータ) (2025-10-23T05:10:06Z) - Towards a Larger Model via One-Shot Federated Learning on Heterogeneous Client Models [6.138533689454442]
フェデレートラーニング(Federated Learning)は、分散化されたクライアントが、生データを送信せずにモデルパラメータを交換することで、共用モデルのトレーニングを可能にする。
我々は,より大規模で包括的なサーバモデルをワンショット設定で構築するFedOLを提案する。
これにより、完全なモデル重みの代わりにコンパクトな予測を送信することで通信オーバーヘッドを低減する。
論文 参考訳(メタデータ) (2025-08-19T08:35:25Z) - Communication-Efficient and Personalized Federated Foundation Model Fine-Tuning via Tri-Matrix Adaptation [47.82423317739088]
本稿では, パーソナライズされたモデルパラメータアグリゲーションを用いた三要素化低ランク適応手法である通信効率のフェデレーションLoRA適応(CE-LoRA)を提案する。
各種LLMおよびVLM微調整タスクの実験により、CE-LoRAは通信オーバーヘッドを著しく低減するだけでなく、独立で同一の分散データ条件下での性能も向上することが示された。
論文 参考訳(メタデータ) (2025-03-31T09:18:42Z) - FedAWA: Adaptive Optimization of Aggregation Weights in Federated Learning Using Client Vectors [50.131271229165165]
Federated Learning (FL)は、分散機械学習のための有望なフレームワークとして登場した。
ユーザの行動、好み、デバイス特性の相違から生じるデータの異質性は、連合学習にとって重要な課題である。
本稿では,学習過程におけるクライアントベクトルに基づくアダプティブ重み付けを適応的に調整する手法であるAdaptive Weight Aggregation (FedAWA)を提案する。
論文 参考訳(メタデータ) (2025-03-20T04:49:40Z) - FedRTS: Federated Robust Pruning via Combinatorial Thompson Sampling [11.913924455236652]
フェデレートラーニング(FL)は、データ共有なしで分散クライアント間で協調的なモデルトレーニングを可能にする。
現在の手法では、疎密性を維持しながらスパースモデルトポロジを周期的に調整することで、動的プルーニングを用いて効率を向上させる。
我々は,堅牢なスパースモデルの開発を目的とした新しいフレームワークであるThompson Sampling (FedRTS) によるフェデレートロバスト刈取を提案する。
論文 参考訳(メタデータ) (2025-01-31T13:26:22Z) - Hybrid-Regularized Magnitude Pruning for Robust Federated Learning under Covariate Shift [2.298932494750101]
クライアント側トレーニング分布の不整合がフェデレート学習モデルの性能を著しく低下させることを示す。
本稿では,ニューラルネットワークの疎結合性,冗長性,堅牢性を改善するために,フラニングとクライアントトレーニングの正規化を組み合わせた新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-19T16:22:37Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。