論文の概要: On-the-fly Resource-Aware Model Aggregation for Federated Learning in
Heterogeneous Edge
- arxiv url: http://arxiv.org/abs/2112.11485v1
- Date: Tue, 21 Dec 2021 19:04:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-24 02:09:44.196561
- Title: On-the-fly Resource-Aware Model Aggregation for Federated Learning in
Heterogeneous Edge
- Title(参考訳): ヘテロジニアスエッジにおける連合学習のためのオンザフライ・リソースアウェア・モデルアグリゲーション
- Authors: Hung T. Nguyen, Roberto Morabito, Kwang Taik Kim, Mung Chiang
- Abstract要約: エッジコンピューティングは、フレキシブルでセキュアでパフォーマンスの良い特性のおかげで、モバイルとワイヤレスネットワークの世界に革命をもたらした。
本稿では,中央集約サーバを空飛ぶマスタに置き換えるための戦略を詳細に検討する。
本研究は,EdgeAIテストベッドおよび実5Gネットワーク上で実施した測定結果から,空飛ぶマスターFLフレームワークを用いたランタイムの大幅な削減効果を示した。
- 参考スコア(独自算出の注目度): 15.932747809197517
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Edge computing has revolutionized the world of mobile and wireless networks
world thanks to its flexible, secure, and performing characteristics. Lately,
we have witnessed the increasing use of it to make more performing the
deployment of machine learning (ML) techniques such as federated learning (FL).
FL was debuted to improve communication efficiency compared to conventional
distributed machine learning (ML). The original FL assumes a central
aggregation server to aggregate locally optimized parameters and might bring
reliability and latency issues. In this paper, we conduct an in-depth study of
strategies to replace this central server by a flying master that is
dynamically selected based on the current participants and/or available
resources at every FL round of optimization. Specifically, we compare different
metrics to select this flying master and assess consensus algorithms to perform
the selection. Our results demonstrate a significant reduction of runtime using
our flying master FL framework compared to the original FL from measurements
results conducted in our EdgeAI testbed and over real 5G networks using an
operational edge testbed.
- Abstract(参考訳): エッジコンピューティングは、柔軟でセキュアでパフォーマンスの高い特性のおかげで、モバイルとワイヤレスネットワークの世界に革命をもたらした。
最近では、フェデレートラーニング(FL)のような機械学習(ML)技術の展開を向上するために、それの利用が増えているのを目撃しています。
FLは従来の分散機械学習(ML)と比較して通信効率を向上させるために登場した。
元々のFLは、ローカルに最適化されたパラメータを集約する中央集約サーバを前提としており、信頼性とレイテンシの問題を引き起こす可能性がある。
本稿では,この中心サーバを,現在の参加者および/または利用可能なリソースに基づいて動的に選択されたフライングマスターによって置き換える戦略を,FLラウンド毎に詳細に検討する。
具体的には、異なるメトリクスを比較してこのフライングマスターを選択し、選択を行うためのコンセンサスアルゴリズムを評価します。
本研究は, 実運用エッジテストベッドを用いたEdgeAIテストベッドおよび実5Gネットワーク上での計測結果から, フライングマスターFLフレームワークを用いたランタイムの大幅な削減効果を示した。
関連論文リスト
- Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - Vertical Federated Learning over Cloud-RAN: Convergence Analysis and
System Optimization [82.12796238714589]
高速かつ正確なモデルアグリゲーションを実現するために,クラウド無線アクセスネットワーク(Cloud-RAN)ベースの垂直FLシステムを提案する。
アップリンクとダウンリンクの両方の伝送を考慮した垂直FLアルゴリズムの収束挙動を特徴付ける。
我々は,連続凸近似と代替凸探索に基づくシステム最適化アルゴリズムを開発した,連系トランシーバとフロントホール量子化設計によるシステム最適化フレームワークを構築した。
論文 参考訳(メタデータ) (2023-05-04T09:26:03Z) - FLCC: Efficient Distributed Federated Learning on IoMT over CSMA/CA [0.0]
フェデレートラーニング(FL)は、プライバシー保護のための有望なアプローチとして登場した。
本稿では,アドホックネットワーク上で遠隔医療システムを改善するアプリケーションにおけるFLの性能について検討する。
ネットワーク性能を評価するための指標として,1) 干渉を最小限に抑えながら伝送を成功させる確率,2) 精度と損失の点で分散FLモデルの性能を示す。
論文 参考訳(メタデータ) (2023-03-29T16:36:42Z) - Automated Federated Learning in Mobile Edge Networks -- Fast Adaptation
and Convergence [83.58839320635956]
フェデレートラーニング(FL)は、モバイルエッジネットワークで機械学習モデルを分散的にトレーニングするために使用することができる。
最近のFLは、モデルに依存しないメタラーニング(MAML)フレームワークで解釈されている。
本稿は,MAMLがFLにもたらすメリットと,モバイルエッジネットワーク上でのメリットの最大化について論じる。
論文 参考訳(メタデータ) (2023-03-23T02:42:10Z) - Time-sensitive Learning for Heterogeneous Federated Edge Intelligence [52.83633954857744]
フェデレーションエッジインテリジェンス(FEI)システムにおけるリアルタイム機械学習について検討する。
FEIシステムは異種通信と計算資源分布を示す。
本稿では,共有MLモデルの協調学習における全体の実行時間を最小化するために,時間依存型フェデレーションラーニング(TS-FL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-26T08:13:22Z) - Exploring Deep Reinforcement Learning-Assisted Federated Learning for
Online Resource Allocation in EdgeIoT [53.68792408315411]
フェデレートラーニング(FL)は、モバイルエッジコンピューティングベースのInternet of Thing(EdgeIoT)における盗聴攻撃からデータトレーニングプライバシを保護するために、ますます検討されている。
本研究では,連続領域における最適精度とエネルギー収支を達成するために,FLDLT3フレームワークを提案する。
その結果、FL-DLT3は100回未満の高速収束を実現し、FLの精度-エネルギー消費比は既存の最先端ベンチマークと比較して51.8%向上した。
論文 参考訳(メタデータ) (2022-02-15T13:36:15Z) - Mobility-Aware Cluster Federated Learning in Hierarchical Wireless
Networks [81.83990083088345]
我々は,無線ネットワークにおける階層型フェデレーション学習(HFL)アルゴリズムを特徴付ける理論モデルを開発した。
分析の結果,HFLの学習性能は,ハイモービル利用者の学習能力が著しく低下していることが判明した。
これらの問題を回避するため,我々はMACFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-20T10:46:58Z) - FedFog: Network-Aware Optimization of Federated Learning over Wireless
Fog-Cloud Systems [40.421253127588244]
フェデレートラーニング(FL)は、訓練されたローカルパラメータを定期的に集約することで、複数のエッジユーザにわたって大規模な分散機械学習タスクを実行することができる。
まず,フォグサーバにおける勾配パラメータの局所的な集約と,クラウドでのグローバルトレーニング更新を行うための効率的なFLアルゴリズム(FedFog)を提案する。
論文 参考訳(メタデータ) (2021-07-04T08:03:15Z) - Accelerating Federated Learning over Reliability-Agnostic Clients in
Mobile Edge Computing Systems [15.923599062148135]
フェデレーション学習は、AIアプリケーションを促進するための、将来性のあるプライバシ保護アプローチとして登場した。
MECアーキテクチャと統合された場合、FLの効率性と効率を最適化することは依然として大きな課題である。
本稿では,MECアーキテクチャのために,HybridFLと呼ばれる多層フェデレート学習プロトコルを設計する。
論文 参考訳(メタデータ) (2020-07-28T17:35:39Z) - Multi-Task Federated Learning for Personalised Deep Neural Networks in
Edge Computing [23.447883712141422]
Federated Learning(FL)は、モバイルデバイス上でDeep Neural Networks(DNN)を協調的にトレーニングする、新たなアプローチである。
従来の研究では、非独立分散(非IID)ユーザデータがFLアルゴリズムの収束速度を損なうことが示されている。
本稿では,非フェデレーションバッチ-Normalization層をフェデレーションDNNに導入するマルチタスクFL(MTFL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-17T21:11:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。