論文の概要: Cost-Effective Federated Learning in Mobile Edge Networks
- arxiv url: http://arxiv.org/abs/2109.05411v1
- Date: Sun, 12 Sep 2021 03:02:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:05:49.100339
- Title: Cost-Effective Federated Learning in Mobile Edge Networks
- Title(参考訳): モバイルエッジネットワークにおけるコスト効果フェデレーション学習
- Authors: Bing Luo, Xiang Li, Shiqiang Wang, Jianwei Huang, Leandros Tassiulas
- Abstract要約: フェデレートラーニング(FL)は、多くのモバイルデバイスが生データを共有せずに協調的にモデルを学習できる分散ラーニングパラダイムである。
本研究は,モバイルエッジネットワークにおける適応FLの設計手法を解析し,本質的な制御変数を最適に選択し,総コストを最小化する。
我々は,収束関連未知パラメータを学習するために,低コストなサンプリングベースアルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 37.16466118235272
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is a distributed learning paradigm that enables a
large number of mobile devices to collaboratively learn a model under the
coordination of a central server without sharing their raw data. Despite its
practical efficiency and effectiveness, the iterative on-device learning
process (e.g., local computations and global communications with the server)
incurs a considerable cost in terms of learning time and energy consumption,
which depends crucially on the number of selected clients and the number of
local iterations in each training round. In this paper, we analyze how to
design adaptive FL in mobile edge networks that optimally chooses these
essential control variables to minimize the total cost while ensuring
convergence. We establish the analytical relationship between the total cost
and the control variables with the convergence upper bound. To efficiently
solve the cost minimization problem, we develop a low-cost sampling-based
algorithm to learn the convergence related unknown parameters. We derive
important solution properties that effectively identify the design principles
for different optimization metrics. Practically, we evaluate our theoretical
results both in a simulated environment and on a hardware prototype.
Experimental evidence verifies our derived properties and demonstrates that our
proposed solution achieves near-optimal performance for different optimization
metrics for various datasets and heterogeneous system and statistical settings.
- Abstract(参考訳): フェデレーション学習(federated learning、fl)は、多数のモバイルデバイスが、生のデータを共有することなく、中央サーバの調整の下で協調的にモデルを学習できる分散学習パラダイムである。
その実用的効率と有効性にもかかわらず、反復的なオンデバイス学習プロセス(例えば、ローカル計算とサーバとのグローバル通信)は、選択したクライアントの数と各トレーニングラウンドにおけるローカルイテレーションの数に大きく依存する、学習時間とエネルギー消費の点でかなりのコストを発生させる。
本稿では,これらの基本制御変数を最適に選択し,収束を確保しつつ,総コストを最小化するモバイルエッジネットワークにおける適応FLの設計方法を分析する。
本研究では,総コストと制御変数のコンバージェンス上限による解析関係を確立する。
コスト最小化の問題を効率的に解くため,低コストなサンプリングベースアルゴリズムを開発し,収束に関連する未知のパラメータを学習する。
異なる最適化メトリクスの設計原則を効果的に識別する重要なソリューション特性を導出します。
本研究は,シミュレーション環境とハードウェアプロトタイプの両方で理論的結果を評価する。
実験的なエビデンスから得られた特性を検証し, 様々なデータセット, 異種システム, 統計的設定の最適化指標に対して, 提案手法がほぼ最適であることを示す。
関連論文リスト
- Switchable Decision: Dynamic Neural Generation Networks [98.61113699324429]
本稿では,各データインスタンスのリソースを動的に割り当てることで,推論を高速化するスイッチブルな決定を提案する。
提案手法は, 同一の精度を維持しながら, 推論時のコスト低減に有効である。
論文 参考訳(メタデータ) (2024-05-07T17:44:54Z) - DYNAMITE: Dynamic Interplay of Mini-Batch Size and Aggregation Frequency
for Federated Learning with Static and Streaming Dataset [23.11152686493894]
Federated Learning(FL)は、異種エッジデバイスをコーディネートして、プライベートデータを共有せずにモデルトレーニングを実行する分散学習パラダイムである。
本稿では、バッチサイズと集約周波数の相互作用を利用して、動的FLトレーニングにおける収束、コスト、完了時間間のトレードオフをナビゲートする新しい解析モデルと最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-20T08:36:12Z) - Sample-Driven Federated Learning for Energy-Efficient and Real-Time IoT
Sensing [22.968661040226756]
我々は,ソフトアクター・クリティカル(A2C)フレームワーク上に構築されたSCFL(Sample-driven Control for Federated Learning)というオンライン強化学習アルゴリズムを導入する。
SCFLにより、エージェントは動的に適応し、変化する環境においてもグローバルな最適条件を見つけることができる。
論文 参考訳(メタデータ) (2023-10-11T13:50:28Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - AnycostFL: Efficient On-Demand Federated Learning over Heterogeneous
Edge Devices [20.52519915112099]
我々はAny CostFLというコスト調整可能なFLフレームワークを提案し、多様なエッジデバイスがローカル更新を効率的に実行できるようにする。
実験結果から,我々の学習フレームワークは,適切なグローバルテスト精度を実現するために,トレーニング遅延とエネルギー消費の最大1.9倍の削減が可能であることが示唆された。
論文 参考訳(メタデータ) (2023-01-08T15:25:55Z) - Energy-Aware Edge Association for Cluster-based Personalized Federated
Learning [2.3262774900834606]
無線ネットワーク上のフェデレートラーニングは、プライバシ保存モデルトレーニングのために、ネットワークエッジにおけるユビキタスインテリジェンスを活用することによって、データ意識のサービスを可能にする。
我々は、類似した好みのユーザデバイスをグループ化するクラスタ化フェデレーション学習を提案し、各クラスタにパーソナライズされたモデルを提供する。
モデル精度、通信資源割り当て、エネルギー消費を共同で考慮し、精度-コストトレードオフ最適化問題を定式化する。
論文 参考訳(メタデータ) (2022-02-06T07:58:41Z) - Energy-Efficient Multi-Orchestrator Mobile Edge Learning [54.28419430315478]
Mobile Edge Learning(MEL)は、エッジデバイス上で機械学習(ML)モデルの分散トレーニングを特徴とする、協調学習パラダイムである。
MELでは、異なるデータセットで複数の学習タスクが共存する可能性がある。
本稿では, エネルギー消費, 精度, 解複雑性のトレードオフを容易にする軽量なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-02T07:37:10Z) - Cost-Effective Federated Learning Design [37.16466118235272]
フェデレーション学習(federated learning, fl)は、多数のデバイスが生のデータを共有することなく、協調的にモデルを学習できる分散学習パラダイムである。
その効率性と有効性にもかかわらず、反復的なオンデバイス学習プロセスは、学習時間とエネルギー消費の面でかなりのコストを伴います。
本稿では,本質的制御変数を最適に選択する適応型flの設計法を分析し,総コストを最小化し,収束性を確保した。
論文 参考訳(メタデータ) (2020-12-15T14:45:11Z) - Dynamic Federated Learning [57.14673504239551]
フェデレートラーニング(Federated Learning)は、マルチエージェント環境における集中的なコーディネーション戦略の包括的用語として登場した。
我々は、各イテレーションにおいて、利用可能なエージェントのランダムなサブセットがそのデータに基づいてローカル更新を実行する、フェデレートされた学習モデルを考える。
集約最適化問題に対する真の最小化器上の非定常ランダムウォークモデルの下で、アーキテクチャの性能は、各エージェントにおけるデータ変動率、各エージェントにおけるモデル変動率、アルゴリズムの学習率に逆比例する追跡項の3つの要因によって決定されることを示す。
論文 参考訳(メタデータ) (2020-02-20T15:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。