論文の概要: Federated Ensemble Model-based Reinforcement Learning in Edge Computing
- arxiv url: http://arxiv.org/abs/2109.05549v3
- Date: Sat, 1 Apr 2023 14:47:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 01:50:50.264968
- Title: Federated Ensemble Model-based Reinforcement Learning in Edge Computing
- Title(参考訳): エッジコンピューティングにおける連合アンサンブルモデルに基づく強化学習
- Authors: Jin Wang, Jia Hu, Jed Mills, Geyong Min, and Ming Xia
- Abstract要約: フェデレートラーニング(Federated Learning、FL)は、プライバシ保護のための分散機械学習パラダイムである。
モデルベースRLとアンサンブル知識蒸留をFLに効果的に組み込む新しいFRLアルゴリズムを提案する。
具体的には、FLと知識蒸留を利用して、クライアント向けの動的モデルのアンサンブルを作成し、環境と相互作用することなく、単にアンサンブルモデルを使用することでポリシーを訓練する。
- 参考スコア(独自算出の注目度): 21.840086997141498
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is a privacy-preserving distributed machine learning
paradigm that enables collaborative training among geographically distributed
and heterogeneous devices without gathering their data. Extending FL beyond the
supervised learning models, federated reinforcement learning (FRL) was proposed
to handle sequential decision-making problems in edge computing systems.
However, the existing FRL algorithms directly combine model-free RL with FL,
thus often leading to high sample complexity and lacking theoretical
guarantees. To address the challenges, we propose a novel FRL algorithm that
effectively incorporates model-based RL and ensemble knowledge distillation
into FL for the first time. Specifically, we utilise FL and knowledge
distillation to create an ensemble of dynamics models for clients, and then
train the policy by solely using the ensemble model without interacting with
the environment. Furthermore, we theoretically prove that the monotonic
improvement of the proposed algorithm is guaranteed. The extensive experimental
results demonstrate that our algorithm obtains much higher sample efficiency
compared to classic model-free FRL algorithms in the challenging continuous
control benchmark environments under edge computing settings. The results also
highlight the significant impact of heterogeneous client data and local model
update steps on the performance of FRL, validating the insights obtained from
our theoretical analysis.
- Abstract(参考訳): Federated Learning(FL)は、データを集めることなく、地理的に分散した、異質なデバイス間の協調トレーニングを可能にする、プライバシ保護の分散機械学習パラダイムである。
FLを教師付き学習モデルを超えて拡張することにより、エッジコンピューティングシステムにおける逐次決定問題に対処するフェデレーション強化学習(FRL)を提案した。
しかし、既存のFRLアルゴリズムはモデルフリーのRLをFLと直接結合し、しばしば高いサンプリング複雑性と理論的保証の欠如をもたらす。
そこで本研究では,モデルベースRLと知識蒸留をFLに効果的に組み込む新しいFRLアルゴリズムを提案する。
具体的には、FLと知識蒸留を利用してクライアント向けの動的モデルのアンサンブルを作成し、環境と相互作用することなく、単にアンサンブルモデルを用いてポリシーを訓練する。
さらに,提案アルゴリズムの単調改善が保証されていることを理論的に証明する。
実験結果から,エッジコンピューティング環境下での連続制御ベンチマーク環境において,従来のモデルレスFRLアルゴリズムと比較して,サンプル効率がはるかに高いことを示した。
また,不均質なクライアントデータと局所モデル更新ステップがFRLの性能に与える影響を明らかにし,理論解析から得られた知見を検証した。
関連論文リスト
- Tackling Computational Heterogeneity in FL: A Few Theoretical Insights [68.8204255655161]
我々は、計算異種データの形式化と処理を可能にする新しい集約フレームワークを導入し、分析する。
提案するアグリゲーションアルゴリズムは理論的および実験的予測から広範囲に解析される。
論文 参考訳(メタデータ) (2023-07-12T16:28:21Z) - Deep Equilibrium Models Meet Federated Learning [71.57324258813675]
本研究では,従来の深層学習ネットワークの代わりにDeep Equilibrium(DEQ)モデルを用いて,フェデレートラーニング(FL)問題について検討する。
我々は、DECモデルをフェデレート学習フレームワークに組み込むことで、FLのいくつかのオープンな問題に自然に対処できると主張している。
我々の知る限りでは、この研究は、DECモデルとフェデレーションラーニングの関連性を確立する最初のものである。
論文 参考訳(メタデータ) (2023-05-29T22:51:40Z) - Confidence-aware Personalized Federated Learning via Variational
Expectation Maximization [34.354154518009956]
パーソナライズド・フェデレーション・ラーニング(PFL)のための新しいフレームワークを提案する。
PFLは、クライアント間で共有モデルをトレーニングする分散学習スキームである。
階層的モデリングと変分推論に基づくPFLの新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-21T20:12:27Z) - Vertical Federated Learning over Cloud-RAN: Convergence Analysis and
System Optimization [82.12796238714589]
高速かつ正確なモデルアグリゲーションを実現するために,クラウド無線アクセスネットワーク(Cloud-RAN)ベースの垂直FLシステムを提案する。
アップリンクとダウンリンクの両方の伝送を考慮した垂直FLアルゴリズムの収束挙動を特徴付ける。
我々は,連続凸近似と代替凸探索に基づくシステム最適化アルゴリズムを開発した,連系トランシーバとフロントホール量子化設計によるシステム最適化フレームワークを構築した。
論文 参考訳(メタデータ) (2023-05-04T09:26:03Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - FedGPO: Heterogeneity-Aware Global Parameter Optimization for Efficient
Federated Learning [11.093360539563657]
フェデレートラーニング(FL)は、機械学習トレーニングにおけるプライバシリークのリスクに対処するソリューションとして登場した。
我々は,モデル収束を保証しつつ,FLのエネルギー効率を最適化するFedGPOを提案する。
我々の実験では、FedGPOはモデル収束時間を2.4倍改善し、ベースライン設定の3.6倍のエネルギー効率を達成する。
論文 参考訳(メタデータ) (2022-11-30T01:22:57Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [118.27470037607846]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - Hybrid Federated Learning: Algorithms and Implementation [61.0640216394349]
Federated Learning(FL)は、分散データセットとプライベートデータセットを扱う分散機械学習パラダイムである。
ハイブリッドFLのためのモデルマッチングに基づく新しい問題定式化を提案する。
次に,グローバルモデルとローカルモデルを協調して学習し,完全かつ部分的な特徴量を扱う効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-22T23:56:03Z) - Training Keyword Spotting Models on Non-IID Data with Federated Learning [6.784774147680782]
そこで本研究では,フェデレート学習を用いて,高品質なキーワードスポッティングモデルをデバイス上でトレーニング可能であることを示す。
デバイス上のデータの適合に関するアルゴリズム上の制約を克服するため、最適化アルゴリズムの徹底的な実験研究を行う。
教師と学生のトレーニングを調査するために、サンプル(デバイス上のデータにゼロ可視性を持たせること)をラベル付けします。
論文 参考訳(メタデータ) (2020-05-21T00:53:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。