論文の概要: Timely Asynchronous Hierarchical Federated Learning: Age of Convergence
- arxiv url: http://arxiv.org/abs/2306.12400v1
- Date: Wed, 21 Jun 2023 17:39:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 12:28:13.092254
- Title: Timely Asynchronous Hierarchical Federated Learning: Age of Convergence
- Title(参考訳): タイムリー非同期階層型連合学習:収束の時代
- Authors: Purbesh Mitra and Sennur Ulukus
- Abstract要約: クライアント-エッジ-クラウドフレームワークを用いた非同期階層型フェデレーション学習環境について検討する。
クライアントはトレーニングされたパラメータをエッジサーバと交換し、ローカルに集約されたモデルを更新する。
各クライアントの目標は、クライアントのタイムラインを維持しながら、グローバルモデルに収束することだ。
- 参考スコア(独自算出の注目度): 59.96266198512243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider an asynchronous hierarchical federated learning (AHFL) setting
with a client-edge-cloud framework. The clients exchange the trained parameters
with their corresponding edge servers, which update the locally aggregated
model. This model is then transmitted to all the clients in the local cluster.
The edge servers communicate to the central cloud server for global model
aggregation. The goal of each client is to converge to the global model, while
maintaining timeliness of the clients, i.e., having optimum training iteration
time. We investigate the convergence criteria for such a system with dense
clusters. Our analysis shows that for a system of $n$ clients with fixed
average timeliness, the convergence in finite time is probabilistically
guaranteed, if the nodes are divided into $O(1)$ number of clusters, that is,
if the system is built as a sparse set of edge servers with dense client bases
each.
- Abstract(参考訳): クライアントエッジクラウドフレームワークによる非同期階層型フェデレーション学習(AHFL)の設定を検討する。
クライアントはトレーニングされたパラメータをエッジサーバと交換し、ローカルに集約されたモデルを更新する。
このモデルは、ローカルクラスタ内のすべてのクライアントに送信される。
エッジサーバは、グローバルモデル集約のために中央クラウドサーバと通信する。
各クライアントの目標は、最適なトレーニングイテレーション時間を持つクライアントのタイムラインを維持しながら、グローバルモデルに収束することである。
密集したクラスタを持つシステムの収束基準について検討する。
分析の結果,固定平均時間軸を持つn$クライアントのシステムでは,ノードが$o(1)$のクラスタに分割される場合,そのノードが分散したクライアントベースを持つエッジサーバ群として構築される場合,有限時間の収束が確率的に保証されることがわかった。
関連論文リスト
- Asynchronous Multi-Server Federated Learning for Geo-Distributed Clients [4.6792910030704515]
フェデレートラーニング(FL)システムは、複数のクライアントが単一のサーバで中間モデルの重みを同期的に交換することで、機械学習モデルを反復的にトレーニングすることができる。
このようなFLシステムのスケーラビリティは、同期通信によるサーバアイドル時間と、ひとつのサーバがボトルネックになるリスクの2つの要因によって制限することができる。
本稿では,完全に非同期な新しいFLアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-03T15:29:46Z) - Towards Client Driven Federated Learning [7.528642177161784]
私たちは、クライアントを駆動する新しいFLフレームワークであるクライアント駆動フェデレートラーニング(CDFL:Client-Driven Federated Learning)を紹介します。
CDFLでは、各クライアントは、ローカルにトレーニングされたモデルをサーバにアップロードし、ローカルタスクに合わせてカスタマイズされたモデルを受け取ることで、独立して非同期にモデルを更新する。
論文 参考訳(メタデータ) (2024-05-24T10:17:49Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Optimizing Server-side Aggregation For Robust Federated Learning via
Subspace Training [80.03567604524268]
クライアント間の非IIDデータ分散と中毒攻撃は、現実世界のフェデレーション学習システムにおける2つの大きな課題である。
サーバ側集約プロセスを最適化する汎用的なアプローチであるSmartFLを提案する。
本稿では,SmartFLの収束と一般化能力に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-11-10T13:20:56Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - Client Selection Approach in Support of Clustered Federated Learning
over Wireless Edge Networks [2.6774008509840996]
CFL(Clustered Federated Multitask Learning)は、信頼性の高い専門モデルを得るための効率的なスキームとして導入された。
本稿では,特殊な機械学習モデルを得るための収束率の向上を目的とした,新しいクライアント選択アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-16T21:38:22Z) - Hierarchical Quantized Federated Learning: Convergence Analysis and
System Design [7.481427303081613]
フェデレーション学習は、クライアントのプライベートデータなしでディープニューラルネットワークをトレーニングするコラボレーティブマシンである。
以前の作業は、クラウドまたはエッジで1つの中央パラメータを仮定します。
本稿では,両クラウドサーバの利点を活用し,階層型量子化フェデレート学習システムについて考察する。
論文 参考訳(メタデータ) (2021-03-26T05:48:36Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z) - Timely Communication in Federated Learning [65.1253801733098]
我々は,パラメータサーバ(PS)が,クラウドサーバにクライアントデータを集中的に格納することなく,$n$クライアントを用いてグローバルモデルを訓練するグローバルラーニングフレームワークを検討する。
提案されたスキームでは、各イテレーションでPSは$m$のクライアントを待ち、現在のモデルを送信する。
各クライアントが経験する情報の平均年齢を見つけ、与えられた$n$の年齢最適値である$m$と$k$を数値的に特徴付ける。
論文 参考訳(メタデータ) (2020-12-31T18:52:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。