論文の概要: A Unified Convergence Analysis for Semi-Decentralized Learning: Sampled-to-Sampled vs. Sampled-to-All Communication
- arxiv url: http://arxiv.org/abs/2511.11560v2
- Date: Mon, 17 Nov 2025 13:43:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:22.687264
- Title: A Unified Convergence Analysis for Semi-Decentralized Learning: Sampled-to-Sampled vs. Sampled-to-All Communication
- Title(参考訳): 半分散学習のための統一収束分析:サンプリング対サンプリング対全通信
- Authors: Angelo Rodio, Giovanni Neglia, Zheng Chen, Erik G. Larsson,
- Abstract要約: 半分散化フェデレーション学習では、デバイスはデバイス間通信に依存するが、時には中央サーバと対話する。
その実用的重要性にもかかわらず、これらの2つの戦略の厳密な理論的および実証的な比較はいまだに残っていない。
我々は,キーシステムパラメータを考慮に入れた統合収束フレームワークにおいて,S2SとS2Aを解析する。
- 参考スコア(独自算出の注目度): 29.667177253973602
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In semi-decentralized federated learning, devices primarily rely on device-to-device communication but occasionally interact with a central server. Periodically, a sampled subset of devices uploads their local models to the server, which computes an aggregate model. The server can then either (i) share this aggregate model only with the sampled clients (sampled-to-sampled, S2S) or (ii) broadcast it to all clients (sampled-to-all, S2A). Despite their practical significance, a rigorous theoretical and empirical comparison of these two strategies remains absent. We address this gap by analyzing S2S and S2A within a unified convergence framework that accounts for key system parameters: sampling rate, server aggregation frequency, and network connectivity. Our results, both analytical and experimental, reveal distinct regimes where one strategy outperforms the other, depending primarily on the degree of data heterogeneity across devices. These insights lead to concrete design guidelines for practical semi-decentralized FL deployments.
- Abstract(参考訳): 半分散化フェデレーション学習では、デバイスは主にデバイス間通信に依存しているが、時には中央サーバと対話する。
定期的に、デバイスのサンプルサブセットがローカルモデルをサーバにアップロードし、集約モデルを計算する。
サーバは、どちらでもできる
(i)この集計モデルをサンプルクライアント(サンプル化、S2S)のみに共有する
(ii)全クライアント(S2A)にブロードキャストする。
その実用的重要性にもかかわらず、これらの2つの戦略の厳密な理論的および実証的な比較はいまだに残っていない。
我々は、サンプリングレート、サーバ集約頻度、ネットワーク接続性といった主要なシステムパラメータを考慮に入れた統合収束フレームワークにおいて、S2SとS2Aを分析して、このギャップに対処する。
分析的および実験的な結果から,一方の戦略が他方の戦略より優れている状況が明らかとなった。
これらの知見は、実践的な半分散FLデプロイメントのための具体的な設計ガイドラインにつながります。
関連論文リスト
- Deep Domain Isolation and Sample Clustered Federated Learning for Semantic Segmentation [2.515027627030043]
本稿では,2次元セグメンテーションタスクにおける参加者間の共変量変化の影響を初めて検討する。
我々は、モデルの勾配空間内で直接画像領域を分離するディープドメイン分離(DDI)を開発する。
我々は,このクラスタリングアルゴリズムをSCFL(Sample Clustered Federated Learning)フレームワークを通じて活用する。
論文 参考訳(メタデータ) (2024-10-04T12:43:07Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - Revisiting the Evaluation of Image Synthesis with GANs [55.72247435112475]
本研究では, 合成性能の評価に関する実証的研究を行い, 生成モデルの代表としてGAN(Generative Adversarial Network)を用いた。
特に、表現空間におけるデータポイントの表現方法、選択したサンプルを用いた公平距離の計算方法、各集合から使用可能なインスタンス数など、さまざまな要素の詳細な分析を行う。
論文 参考訳(メタデータ) (2023-04-04T17:54:32Z) - Parallel Successive Learning for Dynamic Distributed Model Training over
Heterogeneous Wireless Networks [50.68446003616802]
フェデレートラーニング(Federated Learning, FedL)は、一連の無線デバイスにモデルトレーニングを配布する一般的なテクニックとして登場した。
我々は,FedLアーキテクチャを3次元に拡張した並列逐次学習(PSL)を開発した。
我々の分析は、分散機械学習におけるコールド対ウォームアップモデルの概念とモデル慣性について光を当てている。
論文 参考訳(メタデータ) (2022-02-07T05:11:01Z) - Device Sampling for Heterogeneous Federated Learning: Theory,
Algorithms, and Implementation [24.084053136210027]
グラフシーケンシャル畳み込みネットワーク(GCN)に基づくサンプリング手法を開発した。
提案手法は,全機器の5%以下をサンプリングしながら,訓練されたモデル精度と必要なリソース利用の両面で,fedl(federated learning)を実質的に上回っている。
論文 参考訳(メタデータ) (2021-01-04T05:59:50Z) - Robustness analytics to data heterogeneity in edge computing [8.234373710211703]
フェデレートラーニング(Federated Learning)は、モデルを共同でトレーニングするフレームワークである。
遠隔地に配置された 集中型サーバーの 完全な知識でね
分散マシンに格納されたデータにアクセスできません
エッジデバイスから生成されたデータは、共通の人口分布から同一かつ独立にサンプリングされていると仮定する研究もある。
両シナリオにおいて,局所的な学習イテレーションと通信頻度が適切に選択された場合,フェデレートラーニングがデータの不均一性に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2020-02-12T15:11:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。