論文の概要: Ed-Fed: A generic federated learning framework with resource-aware
client selection for edge devices
- arxiv url: http://arxiv.org/abs/2307.07199v1
- Date: Fri, 14 Jul 2023 07:19:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-17 14:30:51.651012
- Title: Ed-Fed: A generic federated learning framework with resource-aware
client selection for edge devices
- Title(参考訳): ed-fed:エッジデバイスのためのリソース対応クライアント選択を備えた汎用連合学習フレームワーク
- Authors: Zitha Sasindran, Harsha Yelchuri, T. V. Prabhakar
- Abstract要約: フェデレートラーニング(FL)は、エッジデバイスが協調して統一予測モデルを作成するための顕著な方法として進化してきた。
FLアルゴリズムのシミュレーションには多くの研究フレームワークがあるが、音声認識タスクの包括的な展開は容易ではない。
そこでEd-Fed氏は、将来の実用的FLシステム研究の基礎として、包括的で汎用的なFLフレームワークを紹介した。
- 参考スコア(独自算出の注目度): 0.6875312133832078
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) has evolved as a prominent method for edge devices to
cooperatively create a unified prediction model while securing their sensitive
training data local to the device. Despite the existence of numerous research
frameworks for simulating FL algorithms, they do not facilitate comprehensive
deployment for automatic speech recognition tasks on heterogeneous edge
devices. This is where Ed-Fed, a comprehensive and generic FL framework, comes
in as a foundation for future practical FL system research. We also propose a
novel resource-aware client selection algorithm to optimise the waiting time in
the FL settings. We show that our approach can handle the straggler devices and
dynamically set the training time for the selected devices in a round. Our
evaluation has shown that the proposed approach significantly optimises waiting
time in FL compared to conventional random client selection methods.
- Abstract(参考訳): 連合学習(federated learning, fl)は、エッジデバイスがデバイスにローカルに機密性の高いトレーニングデータを確保しながら、協調的に統一予測モデルを作成するための顕著な方法として進化してきた。
flアルゴリズムをシミュレートするための多くの研究フレームワークが存在するにもかかわらず、ヘテロジニアスエッジデバイス上での自動音声認識タスクの包括的な展開は容易ではない。
そこでEd-Fed氏は、将来の実用FLシステム研究の基礎として、包括的で汎用的なFLフレームワークを紹介した。
また,fl設定における待ち時間を最適化する新しいリソース対応クライアント選択アルゴリズムを提案する。
本手法はストラグラー装置を処理でき,選択した機器のトレーニング時間を動的に設定できることを示す。
提案手法は従来のランダムクライアント選択法と比較してFLの待ち時間を大幅に最適化することを示した。
関連論文リスト
- Efficient Data Distribution Estimation for Accelerated Federated Learning [5.085889377571319]
Federated Learning(FL)は、多数の分散エッジデバイスでグローバルモデルをその場でトレーニングする、プライバシ保護機械学習パラダイムである。
デバイスはシステムリソースとトレーニングデータの両方において非常に異質である。
様々なクライアント選択アルゴリズムが開発され、モデルカバレッジと精度の点で有望な性能向上を示している。
論文 参考訳(メタデータ) (2024-06-03T20:33:17Z) - Joint Age-based Client Selection and Resource Allocation for
Communication-Efficient Federated Learning over NOMA Networks [8.030674576024952]
FL(Federated Learning)では、分散クライアントは、自身のトレーニングデータをローカルに保持しながら、共有グローバルモデルを共同でトレーニングすることができる。
本稿では,非直交多重アクセス(NOMA)を利用した無線ネットワーク上でのFLにおける各ラウンドの総時間消費を最小化することを目的とした,クライアント選択とリソース割り当ての協調最適化問題を定式化する。
さらに、各ラウンドで選択されていないクライアントのFLモデルを予測し、FL性能をさらに向上するために、サーバサイド人工知能ニューラルネットワーク(ANN)を提案する。
論文 参考訳(メタデータ) (2023-04-18T13:58:16Z) - Automated Federated Learning in Mobile Edge Networks -- Fast Adaptation
and Convergence [83.58839320635956]
フェデレートラーニング(FL)は、モバイルエッジネットワークで機械学習モデルを分散的にトレーニングするために使用することができる。
最近のFLは、モデルに依存しないメタラーニング(MAML)フレームワークで解釈されている。
本稿は,MAMLがFLにもたらすメリットと,モバイルエッジネットワーク上でのメリットの最大化について論じる。
論文 参考訳(メタデータ) (2023-03-23T02:42:10Z) - Client Selection for Generalization in Accelerated Federated Learning: A
Multi-Armed Bandit Approach [20.300740276237523]
フェデレート・ラーニング(Federated Learning, FL)は、ローカルデータセットを保持する複数のノード(すなわちクライアント)にわたるモデルをトレーニングするために使用される機械学習(ML)パラダイムである。
FL(Bandit Scheduling for FL)と呼ばれる,この目標を達成するための新しいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-03-18T09:45:58Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - A Survey on Participant Selection for Federated Learning in Mobile
Networks [47.88372677863646]
Federated Learning(FL)は、プライベートデータセットをプライバシ保護の方法で使用する、効率的な分散機械学習パラダイムである。
モバイルネットワークにおける通信帯域が限られており、不安定なデバイスが利用できるため、各ラウンドで選択できる端末はごくわずかである。
論文 参考訳(メタデータ) (2022-07-08T04:22:48Z) - On-the-fly Resource-Aware Model Aggregation for Federated Learning in
Heterogeneous Edge [15.932747809197517]
エッジコンピューティングは、フレキシブルでセキュアでパフォーマンスの良い特性のおかげで、モバイルとワイヤレスネットワークの世界に革命をもたらした。
本稿では,中央集約サーバを空飛ぶマスタに置き換えるための戦略を詳細に検討する。
本研究は,EdgeAIテストベッドおよび実5Gネットワーク上で実施した測定結果から,空飛ぶマスターFLフレームワークを用いたランタイムの大幅な削減効果を示した。
論文 参考訳(メタデータ) (2021-12-21T19:04:42Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - On-device Federated Learning with Flower [22.719117235237036]
Federated Learning(FL)により、エッジデバイスは、デバイス上のトレーニングデータを維持しながら、共有予測モデルを共同で学習できます。
FLのアルゴリズムの進歩にもかかわらず、エッジデバイス上のFLアルゴリズムのオンデバイストレーニングのサポートは未だに貧弱である。
Flower フレームワークを用いて,様々なスマートフォンや組み込みデバイス上でデバイス上のFLを探索する。
論文 参考訳(メタデータ) (2021-04-07T10:42:14Z) - Fast-Convergent Federated Learning [82.32029953209542]
フェデレーション学習は、モバイルデバイスの現代的なネットワークを介して機械学習タスクを分散するための、有望なソリューションである。
本稿では,FOLBと呼ばれる高速収束型フェデレーション学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-26T14:37:51Z) - Prophet: Proactive Candidate-Selection for Federated Learning by
Predicting the Qualities of Training and Reporting Phases [66.01459702625064]
5Gネットワークでは、トレーニングレイテンシは依然としてフェデレートラーニング(FL)が広く採用されるのを防ぐ障害である。
大きなレイテンシをもたらす最も基本的な問題の1つは、FLの悪い候補選択である。
本稿では,FLの有効候補選択について検討する。
論文 参考訳(メタデータ) (2020-02-03T06:40:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。