論文の概要: FLEdge: Benchmarking Federated Machine Learning Applications in Edge Computing Systems
- arxiv url: http://arxiv.org/abs/2306.05172v4
- Date: Mon, 04 Nov 2024 08:53:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 21:26:12.243232
- Title: FLEdge: Benchmarking Federated Machine Learning Applications in Edge Computing Systems
- Title(参考訳): FLEdge:エッジコンピューティングシステムにおけるフェデレーション機械学習アプリケーションのベンチマーク
- Authors: Herbert Woisetschläger, Alexander Erben, Ruben Mayer, Shiqiang Wang, Hans-Arno Jacobsen,
- Abstract要約: フェデレートラーニング(FL)は,ネットワークエッジ上での分散ディープラーニングのプライバシ強化を実現する上で,有効なテクニックとなっている。
本稿では,既存のFLベンチマークを補完するFLEdgeを提案する。
- 参考スコア(独自算出の注目度): 61.335229621081346
- License:
- Abstract: Federated Learning (FL) has become a viable technique for realizing privacy-enhancing distributed deep learning on the network edge. Heterogeneous hardware, unreliable client devices, and energy constraints often characterize edge computing systems. In this paper, we propose FLEdge, which complements existing FL benchmarks by enabling a systematic evaluation of client capabilities. We focus on computational and communication bottlenecks, client behavior, and data security implications. Our experiments with models varying from 14K to 80M trainable parameters are carried out on dedicated hardware with emulated network characteristics and client behavior. We find that state-of-the-art embedded hardware has significant memory bottlenecks, leading to 4x longer processing times than on modern data center GPUs.
- Abstract(参考訳): フェデレートラーニング(FL)は,ネットワークエッジ上での分散ディープラーニングのプライバシ向上を実現する上で,有効なテクニックとなっている。
不均一なハードウェア、信頼性の低いクライアントデバイス、エネルギー制約はしばしばエッジコンピューティングシステムの特徴である。
本稿では,既存のFLベンチマークを補完するFLEdgeを提案する。
計算と通信のボトルネック、クライアントの振る舞い、データセキュリティへの影響に重点を置いています。
ネットワーク特性とクライアント動作をエミュレートした専用ハードウェア上で,14Kから80Mのトレーニング可能なパラメータのモデルによる実験を行った。
最新の組込みハードウェアはメモリボトルネックが大きく、現代のデータセンターのGPUの4倍の処理時間がかかります。
関連論文リスト
- Federated Fine-Tuning of LLMs on the Very Edge: The Good, the Bad, the Ugly [62.473245910234304]
本稿では,最新のエッジコンピューティングシステムにおいて,Large Language Modelsをどのように導入できるかを,ハードウェア中心のアプローチで検討する。
マイクロレベルのハードウェアベンチマークを行い、FLOPモデルと最先端のデータセンターGPUを比較し、現実的な条件下でのネットワーク利用について検討する。
論文 参考訳(メタデータ) (2023-10-04T20:27:20Z) - FedLE: Federated Learning Client Selection with Lifespan Extension for
Edge IoT Networks [34.63384007690422]
Federated Learning(FL)は、IoT(Internet of Things)デバイスによってエッジで生成された巨大なデータによる予測モデリングのための分散およびプライバシ保護学習フレームワークである。
IoTでFLが広く採用されるのを防ぐ大きな課題のひとつは、IoTデバイスの広範な電源制約だ。
我々はエッジIoTネットワークの拡張を可能にするエネルギー効率の高いクライアント選択フレームワークであるFedLEを提案する。
論文 参考訳(メタデータ) (2023-02-14T19:41:24Z) - Enhancing Efficiency in Multidevice Federated Learning through Data Selection [11.67484476827617]
マルチデバイス環境におけるフェデレーション学習(FL)は、膨大な量のプライベートデータから学習する新たな機会を生み出す。
本稿では、デバイス上のデータ選択を制約されたデバイスに組み込むためのFLフレームワークを開発する。
我々のフレームワークは,実装戦略のないベースラインFLと比較して,19%の精度,58%のレイテンシを実現している。
論文 参考訳(メタデータ) (2022-11-08T11:39:17Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Multi-Edge Server-Assisted Dynamic Federated Learning with an Optimized
Floating Aggregation Point [51.47520726446029]
協調エッジ学習(CE-FL)は、分散機械学習アーキテクチャである。
CE-FLの過程をモデル化し,分析訓練を行った。
実世界のテストベッドから収集したデータを用いて,本フレームワークの有効性を示す。
論文 参考訳(メタデータ) (2022-03-26T00:41:57Z) - perf4sight: A toolflow to model CNN training performance on Edge GPUs [16.61258138725983]
この研究は、CNNのトレーニングメモリフットプリントとレイテンシを予測する正確なモデルを開発するための自動化手法であるperf4sightを提案する。
フレームワークはPyTorch、ターゲットデバイスはNVIDIA Jetson TX2、それぞれ95%と91%の精度でトレーニングメモリフットプリントとレイテンシを予測する。
論文 参考訳(メタデータ) (2021-08-12T07:55:37Z) - FedAR: Activity and Resource-Aware Federated Learning Model for
Distributed Mobile Robots [1.332560004325655]
最近提案されたFederated Learning(FL)と呼ばれる機械学習アルゴリズムは、データのプライバシーを維持する道を開く。
本稿では、クライアントのアクティビティを監視し、利用可能なローカルコンピューティングリソースを活用することでFLモデルを提案する。
このような移動ロボットをFLクライアントとみなして,現実の環境での資源制約された動作を理解する。
論文 参考訳(メタデータ) (2021-01-11T05:27:37Z) - Wireless Communications for Collaborative Federated Learning [160.82696473996566]
IoT(Internet of Things)デバイスは、収集したデータを中央のコントローラに送信することができず、機械学習モデルをトレーニングすることができる。
GoogleのセミナルFLアルゴリズムでは、すべてのデバイスを中央コントローラに直接接続する必要がある。
本稿では,コラボレーティブFL(CFL)と呼ばれる新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-03T20:00:02Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。