論文の概要: FLEdge: Benchmarking Federated Machine Learning Applications in Edge
Computing Systems
- arxiv url: http://arxiv.org/abs/2306.05172v2
- Date: Tue, 13 Jun 2023 13:41:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 16:36:27.830690
- Title: FLEdge: Benchmarking Federated Machine Learning Applications in Edge
Computing Systems
- Title(参考訳): FLEdge:エッジコンピューティングシステムにおけるフェデレーション機械学習アプリケーションのベンチマーク
- Authors: Herbert Woisetschl\"ager, Alexander Isenko, Ruben Mayer, Hans-Arno
Jacobsen
- Abstract要約: 本稿では,エッジコンピューティングシステムにおけるFLワークロードを対象としたベンチマークであるFLEdgeを紹介する。
ハードウェアの不均一性,トレーニング中のエネルギー効率,およびFLシステムのトレーニングに対する各種の差分プライバシーレベルの影響を系統的に研究した。
クライアントのドロップアウトが失敗率50%の最先端のFL戦略に与える影響を評価する。
- 参考スコア(独自算出の注目度): 77.45213180689952
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated Machine Learning (FL) has received considerable attention in recent
years. FL benchmarks are predominantly explored in either simulated systems or
data center environments, neglecting the setups of real-world systems, which
are often closely linked to edge computing. We close this research gap by
introducing FLEdge, a benchmark targeting FL workloads in edge computing
systems. We systematically study hardware heterogeneity, energy efficiency
during training, and the effect of various differential privacy levels on
training in FL systems. To make this benchmark applicable to real-world
scenarios, we evaluate the impact of client dropouts on state-of-the-art FL
strategies with failure rates as high as 50%. FLEdge provides new insights,
such as that training state-of-the-art FL workloads on older GPU-accelerated
embedded devices is up to 3x more energy efficient than on modern server-grade
GPUs.
- Abstract(参考訳): 近年,federated machine learning (fl) が注目されている。
FLベンチマークはシミュレーションシステムまたはデータセンター環境で主に研究されており、エッジコンピューティングと密接に結びついている実世界のシステムのセットアップを無視している。
我々は、エッジコンピューティングシステムにおけるFLワークロードをターゲットにしたベンチマークであるFLEdgeを導入することで、この研究ギャップを埋める。
ハードウェアの不均一性,トレーニング中のエネルギー効率,およびFLシステムのトレーニングに対する各種差分プライバシーレベルの影響を系統的に研究した。
このベンチマークを現実世界のシナリオに適用するために,我々は,クライアントのドロップアウトが最先端fl戦略に与える影響を50%まで評価する。
FLEdgeは、古いGPUアクセラレーションされた組み込みデバイス上での最先端のFLワークロードのトレーニングが、現代のサーバグレードのGPUよりも最大3倍エネルギー効率が高いという、新たな洞察を提供する。
関連論文リスト
- Federated Fine-Tuning of LLMs on the Very Edge: The Good, the Bad, the
Ugly [66.19763977571114]
本稿では,最新のエッジコンピューティングシステムにおいて,Large Language Modelsをどのように導入できるかを,ハードウェア中心のアプローチで検討する。
マイクロレベルのハードウェアベンチマークを行い、FLOPモデルと最先端のデータセンターGPUを比較し、現実的な条件下でのネットワーク利用について検討する。
論文 参考訳(メタデータ) (2023-10-04T20:27:20Z) - FS-Real: Towards Real-World Cross-Device Federated Learning [60.91678132132229]
Federated Learning (FL)は、ローカルデータをアップロードすることなく、分散クライアントと協調して高品質なモデルをトレーニングすることを目的としている。
FL研究と実世界のシナリオの間には依然としてかなりのギャップがあり、主に異種デバイスの特徴とそのスケールによって引き起こされている。
本稿では,実世界横断デバイスFL,FS-Realのための効率的でスケーラブルなプロトタイピングシステムを提案する。
論文 参考訳(メタデータ) (2023-03-23T15:37:17Z) - Automated Federated Learning in Mobile Edge Networks -- Fast Adaptation
and Convergence [83.58839320635956]
フェデレートラーニング(FL)は、モバイルエッジネットワークで機械学習モデルを分散的にトレーニングするために使用することができる。
最近のFLは、モデルに依存しないメタラーニング(MAML)フレームワークで解釈されている。
本稿は,MAMLがFLにもたらすメリットと,モバイルエッジネットワーク上でのメリットの最大化について論じる。
論文 参考訳(メタデータ) (2023-03-23T02:42:10Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Exploring Deep Reinforcement Learning-Assisted Federated Learning for
Online Resource Allocation in EdgeIoT [53.68792408315411]
フェデレートラーニング(FL)は、モバイルエッジコンピューティングベースのInternet of Thing(EdgeIoT)における盗聴攻撃からデータトレーニングプライバシを保護するために、ますます検討されている。
本研究では,連続領域における最適精度とエネルギー収支を達成するために,FLDLT3フレームワークを提案する。
その結果、FL-DLT3は100回未満の高速収束を実現し、FLの精度-エネルギー消費比は既存の最先端ベンチマークと比較して51.8%向上した。
論文 参考訳(メタデータ) (2022-02-15T13:36:15Z) - On-the-fly Resource-Aware Model Aggregation for Federated Learning in
Heterogeneous Edge [15.932747809197517]
エッジコンピューティングは、フレキシブルでセキュアでパフォーマンスの良い特性のおかげで、モバイルとワイヤレスネットワークの世界に革命をもたらした。
本稿では,中央集約サーバを空飛ぶマスタに置き換えるための戦略を詳細に検討する。
本研究は,EdgeAIテストベッドおよび実5Gネットワーク上で実施した測定結果から,空飛ぶマスターFLフレームワークを用いたランタイムの大幅な削減効果を示した。
論文 参考訳(メタデータ) (2021-12-21T19:04:42Z) - On-device Federated Learning with Flower [22.719117235237036]
Federated Learning(FL)により、エッジデバイスは、デバイス上のトレーニングデータを維持しながら、共有予測モデルを共同で学習できます。
FLのアルゴリズムの進歩にもかかわらず、エッジデバイス上のFLアルゴリズムのオンデバイストレーニングのサポートは未だに貧弱である。
Flower フレームワークを用いて,様々なスマートフォンや組み込みデバイス上でデバイス上のFLを探索する。
論文 参考訳(メタデータ) (2021-04-07T10:42:14Z) - Evaluation and Optimization of Distributed Machine Learning Techniques
for Internet of Things [34.544836653715244]
federated learning (fl) と split learning (sl) は最先端の分散機械学習技術である。
最近のFLとSLは、それぞれの利点を活用するために、分割学習(SFL)を形成するために組み合わせられる。
この作業ではFL、SL、SFLを考慮し、Raspberry Piデバイスにマウントしてパフォーマンスを評価します。
論文 参考訳(メタデータ) (2021-03-03T23:55:37Z) - Flower: A Friendly Federated Learning Research Framework [18.54638343801354]
フェデレートラーニング(FL)は、エッジデバイスが共同で共有予測モデルを学ぶための有望なテクニックとして登場した。
Flower - 大規模なFL実験を行うための新しい設備を提供することで、既存のプラットフォームと差別化を図った包括的なFLフレームワークである。
論文 参考訳(メタデータ) (2020-07-28T17:59:07Z) - FLeet: Online Federated Learning via Staleness Awareness and Performance
Prediction [9.408271687085476]
本稿では,最初のオンラインフェデレーション学習システムであるFLeetについて述べる。
オンラインFLは、標準FLのプライバシーとオンライン学習の精度を組み合わせる。
I-Profは新しい軽量プロファイラで、モバイルデバイスにおける学習タスクの影響を予測し、制御する。
AdaSGDは新しい適応学習アルゴリズムで、更新の遅れに耐性がある。
論文 参考訳(メタデータ) (2020-06-12T15:43:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。