論文の概要: Toward Multiple Federated Learning Services Resource Sharing in Mobile
Edge Networks
- arxiv url: http://arxiv.org/abs/2011.12469v1
- Date: Wed, 25 Nov 2020 01:29:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 03:49:39.526582
- Title: Toward Multiple Federated Learning Services Resource Sharing in Mobile
Edge Networks
- Title(参考訳): モバイルエッジネットワークにおける複数連携学習サービス資源共有に向けて
- Authors: Minh N. H. Nguyen, Nguyen H. Tran, Yan Kyaw Tun, Zhu Han, Choong Seon
Hong
- Abstract要約: 本稿では,マルチアクセスエッジコンピューティングサーバにおいて,複数のフェデレーション付き学習サービスの新たなモデルについて検討する。
共同資源最適化とハイパーラーニング率制御の問題,すなわちMS-FEDLを提案する。
シミュレーションの結果,提案アルゴリズムの収束性能を実証した。
- 参考スコア(独自算出の注目度): 88.15736037284408
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Federated Learning is a new learning scheme for collaborative training a
shared prediction model while keeping data locally on participating devices. In
this paper, we study a new model of multiple federated learning services at the
multi-access edge computing server. Accordingly, the sharing of CPU resources
among learning services at each mobile device for the local training process
and allocating communication resources among mobile devices for exchanging
learning information must be considered. Furthermore, the convergence
performance of different learning services depends on the hyper-learning rate
parameter that needs to be precisely decided. Towards this end, we propose a
joint resource optimization and hyper-learning rate control problem, namely
MS-FEDL, regarding the energy consumption of mobile devices and overall
learning time. We design a centralized algorithm based on the block coordinate
descent method and a decentralized JP-miADMM algorithm for solving the MS-FEDL
problem. Different from the centralized approach, the decentralized approach
requires many iterations to obtain but it allows each learning service to
independently manage the local resource and learning process without revealing
the learning service information. Our simulation results demonstrate the
convergence performance of our proposed algorithms and the superior performance
of our proposed algorithms compared to the heuristic strategy.
- Abstract(参考訳): フェデレーション学習(federated learning)は、共有予測モデルを共有デバイス上でローカルに保持しながら、協調的にトレーニングするための新しい学習手法である。
本稿では,マルチアクセスエッジコンピューティングサーバにおける複数のフェデレーション学習サービスの新たなモデルについて検討する。
したがって、各モバイルデバイスにおける学習サービス間のcpuリソースの共有と、学習情報を交換するモバイルデバイス間での通信リソースの割り当てを考慮すべきである。
さらに、異なる学習サービスの収束性能は、正確に決定する必要があるハイパーラーニング率パラメータに依存する。
そこで我々は,モバイル機器のエネルギー消費と学習時間全体について,共同資源最適化とハイパーラーニング率制御の問題,すなわちMS-FEDLを提案する。
ブロック座標降下法に基づく集中型アルゴリズムと,ms-fedl問題を解決する分散型jp-miadmmアルゴリズムを設計する。
中央集権的なアプローチとは異なり、分散化されたアプローチでは多くのイテレーションが必要になりますが、各学習サービスは、学習サービス情報を明らかにすることなく、ローカルリソースと学習プロセスを独立して管理することができます。
シミュレーションの結果,提案アルゴリズムの収束性能と提案アルゴリズムの優れた性能が,ヒューリスティック戦略と比較して証明された。
関連論文リスト
- Decentralized and Lifelong-Adaptive Multi-Agent Collaborative Learning [57.652899266553035]
分散型および生涯適応型多エージェント協調学習は、中央サーバを使わずに複数のエージェント間のコラボレーションを強化することを目的としている。
動的協調グラフを用いた分散マルチエージェント生涯協調学習アルゴリズムであるDeLAMAを提案する。
論文 参考訳(メタデータ) (2024-03-11T09:21:11Z) - Event-Triggered Decentralized Federated Learning over
Resource-Constrained Edge Devices [12.513477328344255]
Federated Learning (FL)は分散機械学習(ML)のための技術である
従来のFLアルゴリズムでは、エッジで訓練されたモデルを中央サーバに定期的に送信して集約する。
我々は、デバイスが協調的なコンセンサス形成を通じてモデルアグリゲーションを行う完全分散FLのための新しい手法を開発した。
論文 参考訳(メタデータ) (2022-11-23T00:04:05Z) - PMFL: Partial Meta-Federated Learning for heterogeneous tasks and its
applications on real-world medical records [11.252157002705484]
フェデレートされた機械学習は、異なるソースからの分散データを利用する汎用的で柔軟なツールである。
本稿では,この問題を解決するために,フェデレートラーニングとメタラーニングを統合した新しいアルゴリズムを提案する。
我々は,異種医療データセットの処理において,アルゴリズムが最速のトレーニング速度を得ることができ,最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-12-10T03:55:03Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z) - Energy-Efficient Multi-Orchestrator Mobile Edge Learning [54.28419430315478]
Mobile Edge Learning(MEL)は、エッジデバイス上で機械学習(ML)モデルの分散トレーニングを特徴とする、協調学習パラダイムである。
MELでは、異なるデータセットで複数の学習タスクが共存する可能性がある。
本稿では, エネルギー消費, 精度, 解複雑性のトレードオフを容易にする軽量なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-02T07:37:10Z) - Federated Multi-Agent Actor-Critic Learning for Age Sensitive Mobile
Edge Computing [16.49587367235662]
モバイルエッジコンピューティング(MEC)は、さまざまな分散通信コンピューティングシステムのための新しい処理スキームを導入します。
年齢に敏感なMECモデルを定式化し、関心事の平均年齢(AoI)最小化問題を定式化する。
共同作業のパラダイムとして, ヘテロジニアス多エージェントアクタ批判(H-MAAC)と呼ばれる新しいポリシーに基づく多エージェント深層強化学習(RL)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-28T08:19:26Z) - Dif-MAML: Decentralized Multi-Agent Meta-Learning [54.39661018886268]
我々は,MAML や Dif-MAML と呼ばれる協調型マルチエージェントメタ学習アルゴリズムを提案する。
提案手法により, エージェントの集合が線形速度で合意に達し, 集約MAMLの定常点に収束できることを示す。
シミュレーションの結果は従来の非協調的な環境と比較して理論的な結果と優れた性能を示している。
論文 参考訳(メタデータ) (2020-10-06T16:51:09Z) - F2A2: Flexible Fully-decentralized Approximate Actor-critic for
Cooperative Multi-agent Reinforcement Learning [110.35516334788687]
分散マルチエージェント強化学習アルゴリズムは複雑なアプリケーションでは実践的でないことがある。
本稿では,大規模で汎用的なマルチエージェント設定を扱える,柔軟な完全分散型アクター批判型MARLフレームワークを提案する。
当社のフレームワークは,大規模環境におけるスケーラビリティと安定性を実現し,情報伝達を低減できる。
論文 参考訳(メタデータ) (2020-04-17T14:56:29Z) - Combining Federated and Active Learning for Communication-efficient
Distributed Failure Prediction in Aeronautics [0.0]
我々は,アクティブラーニングとフェデレートラーニングの学習パラダイムに依存する,新しい集中型分散学習アルゴリズムを提案する。
我々は,この手法を公開ベンチマークで評価し,その精度が非分散学習の最先端性能レベルに非常に近いことを示す。
論文 参考訳(メタデータ) (2020-01-21T13:17:00Z) - Federated Learning with Cooperating Devices: A Consensus Approach for
Massive IoT Networks [8.456633924613456]
分散システムにおける機械学習モデルをトレーニングするための新しいパラダイムとして、フェデレートラーニング(FL)が登場している。
提案するFLアルゴリズムは,ネットワーク内のデータ操作を行うデバイスとの協調を利用して,完全に分散された(あるいはサーバレス)学習手法を提案する。
このアプローチは、分散接続とコンピューティングを特徴とするネットワークを超えて、5G 内で FL を統合するための基盤となる。
論文 参考訳(メタデータ) (2019-12-27T15:16:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。