論文の概要: Delta Sum Learning: an approach for fast and global convergence in Gossip Learning
- arxiv url: http://arxiv.org/abs/2512.01549v1
- Date: Mon, 01 Dec 2025 11:23:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.819369
- Title: Delta Sum Learning: an approach for fast and global convergence in Gossip Learning
- Title(参考訳): Delta Sum Learning:Gossip Learningにおける高速でグローバルな収束のためのアプローチ
- Authors: Tom Goethals, Merlijn Sebrechts, Stijn De Schrijver, Filip De Turck, Bruno Volckaert,
- Abstract要約: Gossip Learningは、集中的な統合を排除し、ピアからピアへの更新を完全に依存することによって、フェデレートラーニングをさらに分散化する。
フェデレーションとゴシップ学習の両方で一般的に使用される平均的手法は、モデル精度とグローバル収束に理想的ではない。
本稿では,ゴシップ学習における基本アグリゲーション操作を改善する手法としてデルタ・サム・ラーニングを提案する。
- 参考スコア(独自算出の注目度): 2.617654879276715
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated Learning is a popular approach for distributed learning due to its security and computational benefits. With the advent of powerful devices in the network edge, Gossip Learning further decentralizes Federated Learning by removing centralized integration and relying fully on peer to peer updates. However, the averaging methods generally used in both Federated and Gossip Learning are not ideal for model accuracy and global convergence. Additionally, there are few options to deploy Learning workloads in the edge as part of a larger application using a declarative approach such as Kubernetes manifests. This paper proposes Delta Sum Learning as a method to improve the basic aggregation operation in Gossip Learning, and implements it in a decentralized orchestration framework based on Open Application Model, which allows for dynamic node discovery and intent-driven deployment of multi-workload applications. Evaluation results show that Delta Sum performance is on par with alternative integration methods for 10 node topologies, but results in a 58% lower global accuracy drop when scaling to 50 nodes. Overall, it shows strong global convergence and a logarithmic loss of accuracy with increasing topology size compared to a linear loss for alternatives under limited connectivity.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)は、セキュリティと計算上のメリットから、分散学習の一般的なアプローチである。
ネットワークエッジに強力なデバイスが出現したことにより、Gossip Learningは、集中的な統合を排除し、ピアからピアへの更新を完全に依存することによって、フェデレートラーニングをさらに分散化する。
しかしながら、フェデレーションとゴシップ学習の両方で一般的に用いられる平均化手法は、モデル精度とグローバル収束に理想的ではない。
さらに、Kubernetesマニフェストのような宣言的なアプローチを使用して、大規模なアプリケーションの一部として、マシンラーニングワークロードをエッジにデプロイするオプションも少なくない。
本稿では,Gossip Learningの基本的な集約操作を改善する手法としてDelta Sum Learningを提案し,それをOpen Application Modelに基づく分散オーケストレーションフレームワークで実装する。
評価結果から,Delta Sumの性能は10ノードトポロジの代替統合手法と同等であるが,50ノードへのスケーリングでは,グローバルな精度低下が58%減少した。
全体としては、接続性に制限された代替品の線形損失と比較して、強大な収束とトポロジーサイズの増加に伴う精度の対数的損失を示す。
関連論文リスト
- Boosting the Performance of Decentralized Federated Learning via Catalyst Acceleration [66.43954501171292]
本稿では,Catalytics Accelerationを導入し,DFedCataと呼ばれる促進型分散フェデレート学習アルゴリズムを提案する。
DFedCataは、パラメータの不整合に対処するMoreauエンベロープ関数と、アグリゲーションフェーズを加速するNesterovの外挿ステップの2つの主要コンポーネントで構成されている。
実験により, CIFAR10/100における収束速度と一般化性能の両面において, 提案アルゴリズムの利点を実証した。
論文 参考訳(メタデータ) (2024-10-09T06:17:16Z) - Scheduling and Communication Schemes for Decentralized Federated
Learning [0.31410859223862103]
勾配降下(SGD)アルゴリズムを用いた分散連合学習(DFL)モデルが導入された。
DFLの3つのスケジューリングポリシーがクライアントと並列サーバ間の通信のために提案されている。
その結果,提案した計画警察は,収束速度と最終グローバルモデルの両方に影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2023-11-27T17:35:28Z) - Sparse Decentralized Federated Learning [35.32297764027417]
分散フェデレートラーニング(DFL)は、中央サーバーなしで協調的なモデルトレーニングを可能にするが、効率、安定性、信頼性の課題に直面している。
Sparse DFL (SDFL) に繋がる共有モデルに空間制約を導入し,新しいアルゴリズムCEPSを提案する。
数値実験により,高い信頼性を維持しつつ,コミュニケーションと効率を向上させるための提案アルゴリズムの有効性が検証された。
論文 参考訳(メタデータ) (2023-08-31T12:22:40Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - Recursive Euclidean Distance Based Robust Aggregation Technique For
Federated Learning [4.848016645393023]
フェデレーション学習は、機械学習におけるデータ可用性とプライバシの課題に対するソリューションである。
悪意のあるユーザは、ローカルモデルを悪意のあるデータでトレーニングすることで、協調学習プロセスを妨害することを目指している。
ユークリッド距離計算に基づく新しいロバストアグリゲーション手法を提案する。
論文 参考訳(メタデータ) (2023-03-20T06:48:43Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - Federated Learning as Variational Inference: A Scalable Expectation
Propagation Approach [66.9033666087719]
本稿では,推論の視点を拡張し,フェデレート学習の変分推論の定式化について述べる。
我々は、FedEPを標準フェデレーション学習ベンチマークに適用し、収束速度と精度の両方において、強いベースラインを上回ります。
論文 参考訳(メタデータ) (2023-02-08T17:58:11Z) - Server Averaging for Federated Learning [14.846231685735592]
フェデレーションラーニングにより、分散デバイスは、ローカルデータセットを中央サーバーで共有または開示することなく、モデルをまとめてトレーニングできます。
フェデレーション学習のプライバシの改善は、より高い計算と通信コストを含む課題も導入する。
収束を加速するサーバ平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-22T07:07:00Z) - BayGo: Joint Bayesian Learning and Information-Aware Graph Optimization [48.30183416069897]
BayGoは、ベイズ学習とグラフ最適化のフレームワークである。
本研究の枠組みは、完全連結および恒星トポロジーグラフと比較して、より高速な収束と精度を実現する。
論文 参考訳(メタデータ) (2020-11-09T11:16:55Z) - Jointly Optimizing Dataset Size and Local Updates in Heterogeneous
Mobile Edge Learning [11.191719032853527]
本稿では、リソース制約のある無線エッジを介して接続された学習者を対象に訓練された分散機械学習(ML)モデルの精度を最大化する。
我々は,各学習者の不均一なコミュニケーションと計算能力を考慮して,ローカル/グローバルな更新数とタスクサイズ割り当てを共同で最適化し,損失を最小限に抑える。
論文 参考訳(メタデータ) (2020-06-12T18:19:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。