論文の概要: MAR-FL: A Communication Efficient Peer-to-Peer Federated Learning System
- arxiv url: http://arxiv.org/abs/2512.05234v1
- Date: Thu, 04 Dec 2025 20:25:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.798902
- Title: MAR-FL: A Communication Efficient Peer-to-Peer Federated Learning System
- Title(参考訳): MAR-FL: コミュニケーション効率の良いピアツーピアフェデレーション学習システム
- Authors: Felix Mulitze, Herbert Woisetschläger, Hans Arno Jacobsen,
- Abstract要約: 次世代無線システムと分散機械学習(ML)は、無線接続されたピアに対して効率的で堅牢なフェデレートラーニング(FL)手法を必要とする。
MAR-FLはP2P FLシステムであり、繰り返しグループベースのアグリゲーションを利用して通信オーバーヘッドを大幅に低減し、チャーンへのレジリエンスを維持している。
- 参考スコア(独自算出の注目度): 7.862642588551265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The convergence of next-generation wireless systems and distributed Machine Learning (ML) demands Federated Learning (FL) methods that remain efficient and robust with wireless connected peers and under network churn. Peer-to-peer (P2P) FL removes the bottleneck of a central coordinator, but existing approaches suffer from excessive communication complexity, limiting their scalability in practice. We introduce MAR-FL, a novel P2P FL system that leverages iterative group-based aggregation to substantially reduce communication overhead while retaining resilience to churn. MAR-FL achieves communication costs that scale as O(N log N), contrasting with the O(N^2) complexity of previously existing baselines, and thereby maintains effectiveness especially as the number of peers in an aggregation round grows. The system is robust towards unreliable FL clients and can integrate private computing.
- Abstract(参考訳): 次世代無線システムと分散機械学習(ML)の収束は、無線接続されたピアに対して効率的で堅牢なフェデレートラーニング(FL)手法を必要とする。
Peer-to-Peer (P2P) FL は中央コーディネータのボトルネックを取り除くが、既存のアプローチは通信の複雑さに悩まされ、実際にはスケーラビリティが制限される。
MAR-FLはP2P FLシステムであり、繰り返しグループベースのアグリゲーションを利用して通信オーバーヘッドを大幅に低減し、チャーンへのレジリエンスを維持している。
MAR-FLは、既存のベースラインのO(N^2)複雑さとは対照的に、O(N log N)としてスケールする通信コストを達成し、特に集約ラウンドにおけるピアの数が増えるにつれて、有効性を維持する。
このシステムは信頼性の低いFLクライアントに対して堅牢であり、プライベートコンピューティングを統合することができる。
関連論文リスト
- Communication-Efficient Zero-Order and First-Order Federated Learning Methods over Wireless Networks [14.744958242029721]
Federated Learning (FL)は、エッジデバイスがローカルデータを共有せずに、協調的にMLモデルをトレーニングすることを可能にする。
FLは、トレーニングフェーズにおいて、デバイスとアグリゲータの間で大量の情報を交換する必要があるため、重大な課題に直面します。
2つの通信効率の高いFL法は、長いベクトルの代わりにスカラー値を通信することで通信オーバーヘッドを低減できると考えられる。
論文 参考訳(メタデータ) (2025-08-11T14:16:23Z) - FLrce: Resource-Efficient Federated Learning with Early-Stopping Strategy [7.963276533979389]
フェデレートラーニング(FL)がIoT(Internet of Things)で大人気
FLrceは、関係ベースのクライアント選択と早期停止戦略を備えた効率的なFLフレームワークである。
その結果,既存のFLフレームワークと比較してFLrceは計算効率を少なくとも30%,通信効率を43%向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-15T10:13:44Z) - Learner Referral for Cost-Effective Federated Learning Over Hierarchical
IoT Networks [21.76836812021954]
本稿では,連合選択(LRef-FedCS),通信資源,局所モデル精度(LMAO)手法を支援する。
提案したLRef-FedCSアプローチは,高いグローバル精度とコスト削減のバランスをとることができる。
論文 参考訳(メタデータ) (2023-07-19T13:33:43Z) - Efficient Parallel Split Learning over Resource-constrained Wireless
Edge Networks [44.37047471448793]
本稿では,エッジコンピューティングパラダイムと並列分割学習(PSL)の統合を提唱する。
そこで本研究では,モデル学習を高速化するために,効率的な並列分割学習(EPSL)という革新的なPSLフレームワークを提案する。
提案するEPSLフレームワークは,目標精度を達成するために必要なトレーニング遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2023-03-26T16:09:48Z) - Scheduling and Aggregation Design for Asynchronous Federated Learning
over Wireless Networks [56.91063444859008]
Federated Learning(FL)は、デバイス上でのトレーニングとサーバベースのアグリゲーションを組み合わせた、協調的な機械学習フレームワークである。
FLシステムにおけるストラグラー問題に対処するために,周期的アグリゲーションを用いた非同期FL設計を提案する。
年齢認識の集約重み付け設計は,非同期FL設定における学習性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2022-12-14T17:33:01Z) - SlimFL: Federated Learning with Superposition Coding over Slimmable
Neural Networks [56.68149211499535]
フェデレートラーニング(FL)は、デバイスの分散コンピューティング機能を活用した効率的なコミュニケーションとコンピューティングのための重要な実現手段である。
本稿では、FLと幅調整可能なスリムブルニューラルネットワーク(SNN)を統合した新しい学習フレームワークを提案する。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2022-03-26T15:06:13Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z) - Federated Learning with Cooperating Devices: A Consensus Approach for
Massive IoT Networks [8.456633924613456]
分散システムにおける機械学習モデルをトレーニングするための新しいパラダイムとして、フェデレートラーニング(FL)が登場している。
提案するFLアルゴリズムは,ネットワーク内のデータ操作を行うデバイスとの協調を利用して,完全に分散された(あるいはサーバレス)学習手法を提案する。
このアプローチは、分散接続とコンピューティングを特徴とするネットワークを超えて、5G 内で FL を統合するための基盤となる。
論文 参考訳(メタデータ) (2019-12-27T15:16:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。