論文の概要: Joint Routing and Model Pruning for Decentralized Federated Learning in Bandwidth-Constrained Multi-Hop Wireless Networks
- arxiv url: http://arxiv.org/abs/2603.15188v1
- Date: Mon, 16 Mar 2026 12:25:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.212856
- Title: Joint Routing and Model Pruning for Decentralized Federated Learning in Bandwidth-Constrained Multi-Hop Wireless Networks
- Title(参考訳): 帯域制約マルチホップ無線ネットワークにおける分散フェデレーション学習のための連成ルーティングとモデルプルーニング
- Authors: Xiaoyu He, Weicai Li, Tiejun Lv, Xi Yu,
- Abstract要約: 分散連合学習(D-FL)は、中央サーバーなしでプライバシ保護トレーニングを可能にする。
本稿では,ルーティング経路とプルーニング率を最適化し,通信遅延を所定の範囲内で維持する共同ルーティング・アンド・プルーニングフレームワークを提案する。
提案手法は,未処理システムと比較して平均伝送遅延を27.8%削減し,テスト精度を約12%向上することを示した。
- 参考スコア(独自算出の注目度): 16.79625047908881
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decentralized federated learning (D-FL) enables privacy-preserving training without a central server, but multi-hop model exchanges and aggregation are often bottlenecked by communication resource constraints. To address this issue, we propose a joint routing-and-pruning framework that optimizes routing paths and pruning rates to maintain communication latency within prescribed limits. We analyze how the sum of model biases across all clients affects the convergence bound of D-FL and formulate an optimization problem that maximizes the model retention rate to minimize these biases under communication constraints. Further analysis reveals that each client's model retention rate is path-dependent, which reduces the original problem to a routing optimization. Leveraging this insight, we develop a routing algorithm that selects latency-efficient transmission paths, allowing more parameters to be delivered within the time budget and thereby improving D-FL convergence. Simulations demonstrate that, compared with unpruned systems, the proposed framework reduces average transmission latency by 27.8% and improves testing accuracy by approximately 12%. Furthermore, relative to standard benchmark routing algorithms, the proposed routing method improves accuracy by roughly 8%.
- Abstract(参考訳): 分散統合学習(D-FL)は、中央サーバーを使わずにプライバシ保護トレーニングを可能にするが、マルチホップモデル交換や集約は通信リソースの制約によってボトルネックとなることが多い。
この問題に対処するために、ルーティングパスとプルーニングレートを最適化し、所定の制限内で通信遅延を維持する共同ルーティング・アンド・プルーニングフレームワークを提案する。
我々は、全てのクライアントにおけるモデルバイアスの和がD-FLの収束境界にどのように影響するかを分析し、これらのバイアスを最小限に抑えるためにモデル保持率を最大化する最適化問題を定式化する。
さらに分析した結果、各クライアントのモデル保持率がパス依存であることが判明し、元の問題をルーティング最適化に還元する。
この知見を生かして、遅延効率の高い伝送経路を選択するルーティングアルゴリズムを開発し、時間予算内でより多くのパラメータを配信し、D-FL収束を改善する。
シミュレーションにより、未実行システムと比較して、提案フレームワークは平均伝送遅延を27.8%削減し、テスト精度を約12%向上することを示した。
さらに,標準的なベンチマークルーティングアルゴリズムと比較して,提案手法は精度を約8%向上させる。
関連論文リスト
- Efficient Split Federated Learning for Large Language Models over Communication Networks [45.02252893286613]
分散方式で訓練済みの大規模言語モデル(LLM)を微調整することで、リソース制約のあるエッジネットワークにおいて大きな課題が生じる。
本稿では,分割フェデレーション学習とパラメータ効率のよい微調整技術を統合する新しいフレームワークであるSflLLMを提案する。
モデル分割とローランク適応(LoRA)を活用することにより、SflLLMはエッジデバイスの計算負担を軽減する。
論文 参考訳(メタデータ) (2025-04-20T16:16:54Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - Gradient Sparsification for Efficient Wireless Federated Learning with
Differential Privacy [25.763777765222358]
フェデレートラーニング(FL)により、分散クライアントは、生データを互いに共有することなく、機械学習モデルを協調的にトレーニングできる。
モデルのサイズが大きくなるにつれて、送信帯域の制限によるトレーニングのレイテンシが低下し、個人情報が劣化すると同時に、差分プライバシ(DP)保護を使用する。
我々は、収束性能を犠牲にすることなく、トレーニング効率を向上させるために、FLフレームワーク無線チャネルのスペース化を提案する。
論文 参考訳(メタデータ) (2023-04-09T05:21:15Z) - Efficient Parallel Split Learning over Resource-constrained Wireless
Edge Networks [44.37047471448793]
本稿では,エッジコンピューティングパラダイムと並列分割学習(PSL)の統合を提唱する。
そこで本研究では,モデル学習を高速化するために,効率的な並列分割学習(EPSL)という革新的なPSLフレームワークを提案する。
提案するEPSLフレームワークは,目標精度を達成するために必要なトレーニング遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2023-03-26T16:09:48Z) - Predictive GAN-powered Multi-Objective Optimization for Hybrid Federated
Split Learning [56.125720497163684]
無線ネットワークにおけるハイブリッド・フェデレーション・スプリット・ラーニング・フレームワークを提案する。
ラベル共有のないモデル分割のための並列計算方式を設計し,提案方式が収束速度に与える影響を理論的に解析する。
論文 参考訳(メタデータ) (2022-09-02T10:29:56Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。