論文の概要: Mobility Improves the Convergence of Asynchronous Federated Learning
- arxiv url: http://arxiv.org/abs/2206.04742v1
- Date: Thu, 9 Jun 2022 19:23:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-13 15:33:45.574374
- Title: Mobility Improves the Convergence of Asynchronous Federated Learning
- Title(参考訳): 非同期フェデレーション学習の収束性を改善するモビリティ
- Authors: Jieming Bian, Jie Xu
- Abstract要約: FedMobileは、モバイルFLシステムのモビリティ特性を利用して学習性能を向上させる新しい非同期フェデレート学習アルゴリズムである。
我々はFedMobileが$O(frac1sqrtNT)$,$N$がクライアント数,$T$が通信スロット数を達成したことを証明した。
我々は,モビリティのレベルが向上するにつれて,FedMobileを用いて非同期FLがより高速に収束することが示唆された。
- 参考スコア(独自算出の注目度): 4.898506439710683
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies asynchronous Federated Learning (FL) subject to clients'
individual arbitrary communication patterns with the parameter server. We
propose FedMobile, a new asynchronous FL algorithm that exploits the mobility
attribute of the mobile FL system to improve the learning performance. The key
idea is to leverage the random client-to-client communication in a mobile
network to create additional indirect communication opportunities with the
server via upload and download relaying. We prove that FedMobile achieves a
convergence rate $O(\frac{1}{\sqrt{NT}})$, where $N$ is the number of clients
and $T$ is the number of communication slots, and show that the optimal design
involves an interesting trade-off on the best timing of relaying. Our analysis
suggests that with an increased level of mobility, asynchronous FL converges
faster using FedMobile. Experiment results on a synthetic dataset and two
real-world datasets verify our theoretical findings.
- Abstract(参考訳): 本稿では,クライアントの任意の通信パターンをパラメータサーバと共有する非同期フェデレーション学習(FL)について検討する。
我々は,モバイルFLシステムの移動特性を利用して学習性能を向上させる非同期FLアルゴリズムであるFedMobileを提案する。
重要なアイデアは、モバイルネットワークにおけるランダムなクライアント間通信を利用して、アップロードとダウンロードのリレーを通じてサーバとの間接的な通信機会を作成することだ。
我々は、feedmobileが$o(\frac{1}{\sqrt{nt}})$(ここで$n$はクライアント数、$t$は通信スロット数)を達成することを証明し、最適な設計は中継の最良のタイミングで興味深いトレードオフを伴うことを示す。
解析により,移動度の向上に伴い,非同期FLはFedMobileにより高速に収束することが示唆された。
実験の結果を合成データセットと実世界の2つのデータセットで検証した。
関連論文リスト
- Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Mobility Accelerates Learning: Convergence Analysis on Hierarchical
Federated Learning in Vehicular Networks [15.282996586821415]
我々は,エッジデータを融合し,エッジモデルをシャッフルすることで,移動が収束速度に影響を与えることを示す。
モビリティは、畳み込みニューラルネットワークのトレーニングにおいて、HFLのモデル精度を最大15.1%向上させる。
論文 参考訳(メタデータ) (2024-01-18T00:09:54Z) - FedDec: Peer-to-peer Aided Federated Learning [15.952956981784219]
フェデレートラーニング(FL)は、プライバシを損なうことなく、複数のエージェントのデータを活用する機械学習モデルのトレーニングを可能にした。
FLは、データ不均一性、部分的なデバイス参加、サーバとの頻繁な通信に弱いことが知られている。
FLの局所勾配更新間でのピアツーピア通信とパラメータ平均化をインターリーブするアルゴリズムであるFedDecを提案する。
論文 参考訳(メタデータ) (2023-06-11T16:30:57Z) - Joint Client Assignment and UAV Route Planning for
Indirect-Communication Federated Learning [20.541942109704987]
FedEx (Federated Learning via Model Express Delivery)と呼ばれる新しいフレームワークが提案されている。
UAVのような移動体トランスポーターを使用して、サーバとクライアント間の間接的な通信チャネルを確立する。
FedEx-SyncとFedEx-Asyncという2つのアルゴリズムがトランスポーターレベルで同期および非同期学習のために提案されている。
論文 参考訳(メタデータ) (2023-04-21T04:47:54Z) - Federated Nearest Neighbor Machine Translation [66.8765098651988]
本稿では,FedNN(FedNN)機械翻訳フレームワークを提案する。
FedNNは1ラウンドの記憶に基づくインタラクションを活用して、異なるクライアント間で知識を共有する。
実験の結果,FedAvgと比較して,FedNNは計算コストと通信コストを著しく削減することがわかった。
論文 参考訳(メタデータ) (2023-02-23T18:04:07Z) - Federated Learning via Indirect Server-Client Communications [20.541942109704987]
Federated Learning(FL)は、コミュニケーション効率とプライバシ保護のための分散機械学習フレームワークである。
本稿では,FedEx という新しい FL フレームワークを提案する。このフレームワークは移動体トランスポーターを用いてサーバとクライアント間の間接的な通信チャネルを確立する。
FedEx-SyncとFedEx-Asyncと呼ばれる2つのアルゴリズムは、トランスポーターが同期または非同期スケジュールを採用するかどうかによって開発される。
論文 参考訳(メタデータ) (2023-02-14T20:12:36Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - FedFM: Anchor-based Feature Matching for Data Heterogeneity in Federated
Learning [91.74206675452888]
本稿では,各クライアントの特徴を共有カテゴリーのアンカーにマッチさせる新しいFedFM法を提案する。
効率と柔軟性を向上させるため,FedFM-Liteと呼ばれるFedFM変種を提案し,クライアントは同期時間と通信帯域幅のコストを少なくしてサーバと通信する。
論文 参考訳(メタデータ) (2022-10-14T08:11:34Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z) - FedGroup: Efficient Clustered Federated Learning via Decomposed
Data-Driven Measure [18.083188787905083]
本稿では,新しいクラスタ型フェデレーション学習(CFL)フレームワークであるFedGroupを提案する。
FEMNISTではFedAvgに比べて絶対テスト精度が+14.1%向上することが示された。
また、いくつかのオープンデータセット上でFedGroupとFedGrouProx(FedProxと組み合わせた)を評価します。
論文 参考訳(メタデータ) (2020-10-14T08:15:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。