論文の概要: Scalable and Low-Latency Federated Learning with Cooperative Mobile Edge
Networking
- arxiv url: http://arxiv.org/abs/2205.13054v1
- Date: Wed, 25 May 2022 21:18:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-28 10:30:10.141287
- Title: Scalable and Low-Latency Federated Learning with Cooperative Mobile Edge
Networking
- Title(参考訳): 協調移動エッジネットワークを用いたスケーラブル・低レイテンシフェデレーション学習
- Authors: Zhenxiao Zhang, Zhidong Gao, Yuanxiong Guo, Yanmin Gong
- Abstract要約: フェデレートラーニング(FL)は、データを集中せずに協調的なモデルトレーニングを可能にする。
本稿では,モバイルエッジネットワークにおける高精度かつ低レイテンシな分散インテリジェンスを実現するために,CFEL(Cooperative Federated Edge Learning)と呼ばれる協調移動エッジネットワークに基づく新しいFLフレームワークを提案する。
- 参考スコア(独自算出の注目度): 11.868792440783055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) enables collaborative model training without
centralizing data. However, the traditional FL framework is cloud-based and
suffers from high communication latency. On the other hand, the edge-based FL
framework that relies on an edge server co-located with access point for model
aggregation has low communication latency but suffers from degraded model
accuracy due to the limited coverage of edge server. In light of high-accuracy
but high-latency cloud-based FL and low-latency but low-accuracy edge-based FL,
this paper proposes a new FL framework based on cooperative mobile edge
networking called cooperative federated edge learning (CFEL) to enable both
high-accuracy and low-latency distributed intelligence at mobile edge networks.
Considering the unique two-tier network architecture of CFEL, a novel federated
optimization method dubbed cooperative edge-based federated averaging
(CE-FedAvg) is further developed, wherein each edge server both coordinates
collaborative model training among the devices within its own coverage and
cooperates with other edge servers to learn a shared global model through
decentralized consensus. Experimental results based on benchmark datasets show
that CFEL can largely speed up the convergence speed and reduce the training
time to achieve a target model accuracy compared with prior FL frameworks.
- Abstract(参考訳): フェデレーション学習(fl)は、データを集中化せずに協調的なモデルトレーニングを可能にする。
しかし、従来のFLフレームワークはクラウドベースであり、高い通信遅延に悩まされている。
一方、モデルアグリゲーションのアクセスポイントと共存するエッジサーバに依存するエッジベースのflフレームワークは、通信遅延が少ないが、エッジサーバのカバレッジが限られているため、モデルの精度が低下している。
本稿では,高速かつ高レイテンシなクラウドベースFLと低レイテンシだが低レイテンシなエッジベースFLを考慮して,協調型フェデレーションエッジ学習(CFEL)と呼ばれる協調型移動エッジネットワークに基づく新しいFLフレームワークを提案する。
cfelのユニークな2層ネットワークアーキテクチャを考えると、協調エッジベースフェデレーション平均化(ce-fedavg)と呼ばれる新しいフェデレーション最適化手法がさらに開発され、各エッジサーバはそれぞれのカバレッジ内でデバイス間の協調モデルトレーニングを調整し、他のエッジサーバと協調して分散コンセンサスを通じて共有グローバルモデルを学ぶ。
ベンチマークデータセットに基づく実験結果から、CFELはコンバージェンス速度を大幅に高速化し、トレーニング時間を短縮し、従来のFLフレームワークと比較して目標モデルの精度を達成できることが示されている。
関連論文リスト
- Heterogeneity-Aware Resource Allocation and Topology Design for Hierarchical Federated Edge Learning [9.900317349372383]
Federated Learning (FL)は、モバイルデバイス上で機械学習モデルをトレーニングするためのプライバシー保護フレームワークを提供する。
従来のFLアルゴリズム、例えばFedAvgはこれらのデバイスに重い通信負荷を課す。
エッジデバイスをエッジサーバに接続し,エッジサーバをピアツーピア(P2P)エッジバックホールを介して相互接続する2層HFELシステムを提案する。
我々の目標は、戦略的資源配分とトポロジ設計により、HFELシステムの訓練効率を向上させることである。
論文 参考訳(メタデータ) (2024-09-29T01:48:04Z) - Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - Vertical Federated Learning over Cloud-RAN: Convergence Analysis and
System Optimization [82.12796238714589]
高速かつ正確なモデルアグリゲーションを実現するために,クラウド無線アクセスネットワーク(Cloud-RAN)ベースの垂直FLシステムを提案する。
アップリンクとダウンリンクの両方の伝送を考慮した垂直FLアルゴリズムの収束挙動を特徴付ける。
我々は,連続凸近似と代替凸探索に基づくシステム最適化アルゴリズムを開発した,連系トランシーバとフロントホール量子化設計によるシステム最適化フレームワークを構築した。
論文 参考訳(メタデータ) (2023-05-04T09:26:03Z) - Hierarchical Personalized Federated Learning Over Massive Mobile Edge
Computing Networks [95.39148209543175]
大規模MECネットワーク上でPFLをデプロイするアルゴリズムである階層型PFL(HPFL)を提案する。
HPFLは、最適帯域割り当てを共同で決定しながら、トレーニング損失最小化とラウンドレイテンシ最小化の目的を組み合わせる。
論文 参考訳(メタデータ) (2023-03-19T06:00:05Z) - Stochastic Coded Federated Learning: Theoretical Analysis and Incentive
Mechanism Design [18.675244280002428]
我々は、コード化されたコンピューティング技術を活用する新しいFLフレームワーク、コード付きフェデレーションラーニング(SCFL)を提案する。
SCFLでは、各エッジデバイスがプライバシを保存するコード化されたデータセットをサーバにアップロードする。
SCFLは、与えられた時間内でより良いモデルを学び、ベースライン方式よりも優れたプライバシーとパフォーマンスのトレードオフを実現する。
論文 参考訳(メタデータ) (2022-11-08T09:58:36Z) - Fed-FSNet: Mitigating Non-I.I.D. Federated Learning via Fuzzy
Synthesizing Network [19.23943687834319]
フェデレートラーニング(FL)は、将来性のあるプライバシ保護分散機械学習フレームワークとして登場した。
我々は、Fed-FSNetと呼ばれる新しいFLトレーニングフレームワークを提案し、Fed-FSNet(Fed-FSNet)を適切に設計し、非I.I.D.のオープンソース問題を軽減する。
論文 参考訳(メタデータ) (2022-08-21T18:40:51Z) - Multi-Edge Server-Assisted Dynamic Federated Learning with an Optimized
Floating Aggregation Point [51.47520726446029]
協調エッジ学習(CE-FL)は、分散機械学習アーキテクチャである。
CE-FLの過程をモデル化し,分析訓練を行った。
実世界のテストベッドから収集したデータを用いて,本フレームワークの有効性を示す。
論文 参考訳(メタデータ) (2022-03-26T00:41:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。