論文の概要: Timely Communication in Federated Learning
- arxiv url: http://arxiv.org/abs/2012.15831v2
- Date: Sat, 13 Mar 2021 16:59:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-17 16:54:16.738945
- Title: Timely Communication in Federated Learning
- Title(参考訳): 連合学習におけるタイムリーコミュニケーション
- Authors: Baturalp Buyukates and Sennur Ulukus
- Abstract要約: 我々は,パラメータサーバ(PS)が,クラウドサーバにクライアントデータを集中的に格納することなく,$n$クライアントを用いてグローバルモデルを訓練するグローバルラーニングフレームワークを検討する。
提案されたスキームでは、各イテレーションでPSは$m$のクライアントを待ち、現在のモデルを送信する。
各クライアントが経験する情報の平均年齢を見つけ、与えられた$n$の年齢最適値である$m$と$k$を数値的に特徴付ける。
- 参考スコア(独自算出の注目度): 65.1253801733098
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a federated learning framework in which a parameter server (PS)
trains a global model by using $n$ clients without actually storing the client
data centrally at a cloud server. Focusing on a setting where the client
datasets are fast changing and highly temporal in nature, we investigate the
timeliness of model updates and propose a novel timely communication scheme.
Under the proposed scheme, at each iteration, the PS waits for $m$ available
clients and sends them the current model. Then, the PS uses the local updates
of the earliest $k$ out of $m$ clients to update the global model at each
iteration. We find the average age of information experienced by each client
and numerically characterize the age-optimal $m$ and $k$ values for a given
$n$. Our results indicate that, in addition to ensuring timeliness, the
proposed communication scheme results in significantly smaller average
iteration times compared to random client selection without hurting the
convergence of the global learning task.
- Abstract(参考訳): 我々は,パラメータサーバ(PS)が,クラウドサーバにクライアントデータを集中的に格納することなく,$n$クライアントを用いてグローバルモデルを訓練する,連合学習フレームワークを検討する。
クライアントのデータセットが急速に変化し、時間的特性が極めて高い設定に焦点をあて、モデル更新のタイムラインを調査し、新しいタイムリーな通信方式を提案する。
提案されたスキームでは、各イテレーションでPSは$m$のクライアントを待ち、現在のモデルを送信する。
その後、PSは、$m$クライアントの早期$k$のローカルアップデートを使用して、各イテレーションでグローバルモデルを更新する。
各クライアントが経験する情報の平均年齢を見つけ、与えられた$n$の年齢最適値である$m$と$k$を数値的に特徴付ける。
提案手法は,時間軸の確保に加えて,グローバル学習タスクの収束を損なうことなくランダムクライアント選択に比べて,平均的なイテレーション時間を大幅に削減できることを示す。
関連論文リスト
- $r$Age-$k$: Communication-Efficient Federated Learning Using Age Factor [31.285983939625098]
Federated Learning(FL)は、パラメータサーバ(PS)によって調整された複数のクライアントが統合された機械学習モデルをトレーニングする、協調的なアプローチである。
本稿では,FLの2つの制限に対処するために,情報量測定の年齢を用いた新しい通信効率アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-29T16:30:34Z) - CAFe: Cost and Age aware Federated Learning [34.16488071014024]
多くのフェデレートドラーニング(FL)モデルでは、N$のクライアントのうち少なくとも$M$のクライアントがローカルな勾配を返送するのを待つことが一般的な戦略である。
我々は、PSにおけるクライアントの平均年齢が理論収束境界に明示的に現れることを示し、従って、大域モデルの収束を定量化するための計量として用いることができる。
論文 参考訳(メタデータ) (2024-05-24T17:41:30Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - Timely Asynchronous Hierarchical Federated Learning: Age of Convergence [59.96266198512243]
クライアント-エッジ-クラウドフレームワークを用いた非同期階層型フェデレーション学習環境について検討する。
クライアントはトレーニングされたパラメータをエッジサーバと交換し、ローカルに集約されたモデルを更新する。
各クライアントの目標は、クライアントのタイムラインを維持しながら、グローバルモデルに収束することだ。
論文 参考訳(メタデータ) (2023-06-21T17:39:16Z) - Towards Bias Correction of FedAvg over Nonuniform and Time-Varying
Communications [26.597515045714502]
Federated Learning(FL)は、パラメータサーバ(PS)とクライアントのコレクションが協調して、グローバルな目的を通じてモデルをトレーニングする分散学習フレームワークである。
チャネル条件が時間とともに変化している場合、FedFederated Postponedグローバルモデルは、ゴシップ型情報混合エラーを延期しないことを示す。
論文 参考訳(メタデータ) (2023-06-01T01:52:03Z) - DYNAFED: Tackling Client Data Heterogeneity with Global Dynamics [60.60173139258481]
非イド分散データに対する局所訓練は、偏向局所最適化をもたらす。
自然な解決策は、サーバがデータ分散全体のグローバルなビューを持つように、すべてのクライアントデータをサーバに収集することです。
本稿では,データプライバシを損なうことなく,サーバ上でのグローバルな知識の収集と活用を図る。
論文 参考訳(メタデータ) (2022-11-20T06:13:06Z) - Optimizing Server-side Aggregation For Robust Federated Learning via
Subspace Training [80.03567604524268]
クライアント間の非IIDデータ分散と中毒攻撃は、現実世界のフェデレーション学習システムにおける2つの大きな課題である。
サーバ側集約プロセスを最適化する汎用的なアプローチであるSmartFLを提案する。
本稿では,SmartFLの収束と一般化能力に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-11-10T13:20:56Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z) - Communication-Efficient Federated Learning via Optimal Client Sampling [20.757477553095637]
フェデレートラーニング(FL)は、中央サーバが多くのクライアントに分散したデータから学習をコーディネートする設定におけるプライバシー上の懸念を改善する。
本稿では,コミュニケーション制約のある環境において,新しい,シンプルで効率的な中央モデルを更新する方法を提案する。
我々は,ロジスティック回帰のための合成データセットと2つのFLベンチマーク,すなわちEMNISTの分類タスクと現実的な言語モデリングタスクを用いて,このポリシーを検証した。
論文 参考訳(メタデータ) (2020-07-30T02:58:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。