論文の概要: FLASH-RL: Federated Learning Addressing System and Static Heterogeneity
using Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2311.06917v1
- Date: Sun, 12 Nov 2023 18:21:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 16:15:28.738712
- Title: FLASH-RL: Federated Learning Addressing System and Static Heterogeneity
using Reinforcement Learning
- Title(参考訳): FLASH-RL:強化学習を用いたフェデレーションラーニングアドレッシングシステムと静的不均一性
- Authors: Sofiane Bouaziz, Hadjer Benmeziane, Youcef Imine, Leila Hamdad, Smail
Niar, Hamza Ouarnoughi
- Abstract要約: フェデレートラーニング(FL)は、有望な機械学習パラダイムとして登場した。
FLでは、各トレーニングラウンドでクライアントのサブセットを選択するのが一般的です。
FLASH-RLはDouble Deep QLearning(DDQL)を利用してFLのシステムおよび静的不均一性に対処するフレームワークである。
- 参考スコア(独自算出の注目度): 1.1650821883155187
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) has emerged as a promising Machine Learning paradigm,
enabling multiple users to collaboratively train a shared model while
preserving their local data. To minimize computing and communication costs
associated with parameter transfer, it is common practice in FL to select a
subset of clients in each training round. This selection must consider both
system and static heterogeneity. Therefore, we propose FLASH-RL, a framework
that utilizes Double Deep QLearning (DDQL) to address both system and static
heterogeneity in FL. FLASH-RL introduces a new reputation-based utility
function to evaluate client contributions based on their current and past
performances. Additionally, an adapted DDQL algorithm is proposed to expedite
the learning process. Experimental results on MNIST and CIFAR-10 datasets have
shown FLASH-RL's effectiveness in achieving a balanced trade-off between model
performance and end-to-end latency against existing solutions. Indeed, FLASH-RL
reduces latency by up to 24.83% compared to FedAVG and 24.67% compared to
FAVOR. It also reduces the training rounds by up to 60.44% compared to FedAVG
and +76% compared to FAVOR. In fall detection using the MobiAct dataset,
FLASH-RL outperforms FedAVG by up to 2.82% in model's performance and reduces
latency by up to 34.75%. Additionally, FLASH-RL achieves the target performance
faster, with up to a 45.32% reduction in training rounds compared to FedAVG.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は有望な機械学習パラダイムとして登場し、複数のユーザがローカルデータを保存しながら、共用モデルのトレーニングを可能にする。
パラメータ転送に伴う計算と通信コストを最小限に抑えるため、FLでは各トレーニングラウンドでクライアントのサブセットを選択するのが一般的である。
この選択はシステムと静的不均一性の両方を考慮する必要がある。
そこで本研究では,Double Deep QLearning (DDQL) を利用したFLASH-RLを提案する。
flash-rlは新しい評判ベースのユーティリティ機能を導入し、クライアントのコントリビュートを現在のパフォーマンスと過去のパフォーマンスに基づいて評価する。
さらに、学習プロセスを高速化するために、適応型DDQLアルゴリズムを提案する。
MNISTとCIFAR-10データセットの実験結果は、FLASH-RLが既存のソリューションに対するモデル性能とエンドツーエンドのレイテンシのバランスの取れたトレードオフを達成する上での有効性を示した。
実際、FLASH-RLはFedAVGの24.83%、FAVORの24.67%の遅延を減少させる。
また、FedAVGと比較して60.44%、FAVORに比べて+76%のトレーニングラウンドを短縮している。
MobiActデータセットによる秋の検知では、FLASH-RLはFedAVGを最大2.82%の性能で上回り、レイテンシを最大34.75%削減する。
さらにFLASH-RLはFedAVGと比較して45.32%のトレーニングラウンドで目標性能を向上した。
関連論文リスト
- FLASH: Federated Learning Across Simultaneous Heterogeneities [54.80435317208111]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - Have Your Cake and Eat It Too: Toward Efficient and Accurate Split Federated Learning [25.47111107054497]
Split Federated Learning (SFL)は、AIoTシステムで有望である。
SFLは低い推測精度と低い効率の課題に悩まされている。
本稿では,Sliding Split Federated Learning (S$2$FL) という新しいSFL手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T05:09:50Z) - TimelyFL: Heterogeneity-aware Asynchronous Federated Learning with
Adaptive Partial Training [17.84692242938424]
TimelyFLは、適応的な部分的トレーニングを備えた、異種対応の非同期フェデレートラーニングフレームワークである。
我々は、TimelyFLが参加率を21.13%改善し、収束率を1.28倍から2.89倍向上させ、テスト精度を6.25%向上させることを示した。
論文 参考訳(メタデータ) (2023-04-14T06:26:08Z) - HFedMS: Heterogeneous Federated Learning with Memorable Data Semantics
in Industrial Metaverse [49.1501082763252]
本稿では,新しい産業メタバースに実用FLを取り入れたHFEDMSを提案する。
動的グルーピングとトレーニングモード変換によってデータの均一性を低下させる。
そして、圧縮された履歴データセマンティクスを融合することで、忘れられた知識を補う。
ストリームされた非I.d.FEMNISTデータセットに対して,368個のシミュレーションデバイスを用いて実験を行った。
論文 参考訳(メタデータ) (2022-11-07T04:33:24Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - Auxo: Efficient Federated Learning via Scalable Client Clustering [22.323057948281644]
フェデレートラーニング(FL)は、論理的に集中したサーバに生データを公開せずに、エッジデバイスが協調的にMLモデルをトレーニングすることを可能にする。
統計的に類似したデータ分布(コホート)を持つクライアントを,大規模・低可用性・資源制約のFL群で段階的に識別するAuxoを提案する。
Auxoは最終的な精度(2.1% - 8.2%)、収束時間(2.2倍)、モデルバイアス(4.8% - 53.8%)の点で、様々な既存のFLソリューションを強化している。
論文 参考訳(メタデータ) (2022-10-29T17:36:51Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Heterogeneous Federated Learning via Grouped Sequential-to-Parallel
Training [60.892342868936865]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のためのコラボレーション機械学習パラダイムである。
本稿では,この課題に対処するため,データヘテロジニアス・ロバストFLアプローチであるFedGSPを提案する。
その結果,FedGSPは7つの最先端アプローチと比較して平均3.7%の精度向上を実現していることがわかった。
論文 参考訳(メタデータ) (2022-01-31T03:15:28Z) - Federated Dynamic Sparse Training: Computing Less, Communicating Less,
Yet Learning Better [88.28293442298015]
Federated Learning (FL)は、クラウドからリソース制限されたエッジデバイスへの機械学習ワークロードの分散を可能にする。
我々は、FedDST(Federated Dynamic Sparse Training)と呼ばれる新しいFLフレームワークを開発し、実装し、実験的に検証する。
FedDSTは、ターゲットのフルネットワークからスパースサブネットワークを抽出し、訓練する動的プロセスである。
論文 参考訳(メタデータ) (2021-12-18T02:26:38Z) - CSAFL: A Clustered Semi-Asynchronous Federated Learning Framework [14.242716751043533]
Federated Learning(FL)は、プライバシーを保護し、孤立したデータ島の問題に取り組む、新たな分散機械学習パラダイムである。
FLの主な通信戦略は、同期FLと非同期FLの2つである。
クラスタ化された半非同期フェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-16T15:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。