論文の概要: AutoFL: Enabling Heterogeneity-Aware Energy Efficient Federated Learning
- arxiv url: http://arxiv.org/abs/2107.08147v1
- Date: Fri, 16 Jul 2021 23:41:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-20 14:41:16.215212
- Title: AutoFL: Enabling Heterogeneity-Aware Energy Efficient Federated Learning
- Title(参考訳): autofl: ヘテロジェネリティアウェアエネルギ効率のよい連合学習を可能にする
- Authors: Young Geun Kim and Carole-Jean Wu
- Abstract要約: フェデレーション学習は、エッジに分散化されたモバイルデバイスのクラスタを配置して、共有機械学習モデルを協調的にトレーニングすることを可能にする。
この分散トレーニングアプローチは、プライバシー漏洩のリスクを軽減するための実用的なソリューションとして実証されている。
本稿では,最先端FL症例の時間対収束性とエネルギー効率を協調的に最適化する。
- 参考スコア(独自算出の注目度): 7.802192899666384
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning enables a cluster of decentralized mobile devices at the
edge to collaboratively train a shared machine learning model, while keeping
all the raw training samples on device. This decentralized training approach is
demonstrated as a practical solution to mitigate the risk of privacy leakage.
However, enabling efficient FL deployment at the edge is challenging because of
non-IID training data distribution, wide system heterogeneity and
stochastic-varying runtime effects in the field. This paper jointly optimizes
time-to-convergence and energy efficiency of state-of-the-art FL use cases by
taking into account the stochastic nature of edge execution. We propose AutoFL
by tailor-designing a reinforcement learning algorithm that learns and
determines which K participant devices and per-device execution targets for
each FL model aggregation round in the presence of stochastic runtime variance,
system and data heterogeneity. By considering the unique characteristics of FL
edge deployment judiciously, AutoFL achieves 3.6 times faster model convergence
time and 4.7 and 5.2 times higher energy efficiency for local clients and
globally over the cluster of K participants, respectively.
- Abstract(参考訳): フェデレーション学習(federated learning)は、エッジにある分散モバイルデバイスのクラスタによって、すべての生のトレーニングサンプルをデバイスに保持しながら、共有機械学習モデルを協調的にトレーニングすることが可能になる。
この分散トレーニングアプローチは、プライバシー漏洩のリスクを軽減するための実用的なソリューションとして実証されている。
しかし,非IIDトレーニングデータ分布,広範囲なシステム不均一性,フィールドにおける確率的ランタイム効果などにより,エッジでの効率的なFL展開を実現することは困難である。
本稿では,エッジ実行の確率的性質を考慮して,最先端flユースケースの時間・コンバージェンスとエネルギー効率を共同で最適化する。
本稿では,各FLモデル集約ラウンドに対して,確率的実行時差,システムおよびデータ不均一性の存在下で,どのK参加者デバイスとデバイス毎の実行目標を学習し,決定する強化学習アルゴリズムを設計し,AutoFLを提案する。
flエッジ配置のユニークな特性を公平に考慮し、autoflはモデル収束時間の3.6倍、ローカルクライアントの4.7倍と5.2倍のエネルギー効率を実現している。
関連論文リスト
- Digital Twin-Assisted Federated Learning with Blockchain in Multi-tier Computing Systems [67.14406100332671]
産業用 4.0 システムでは、リソース制約のあるエッジデバイスが頻繁にデータ通信を行う。
本稿では,デジタルツイン (DT) とフェデレーション付きデジタルツイン (FL) 方式を提案する。
提案手法の有効性を数値解析により検証した。
論文 参考訳(メタデータ) (2024-11-04T17:48:02Z) - Efficient Data Distribution Estimation for Accelerated Federated Learning [5.085889377571319]
Federated Learning(FL)は、多数の分散エッジデバイスでグローバルモデルをその場でトレーニングする、プライバシ保護機械学習パラダイムである。
デバイスはシステムリソースとトレーニングデータの両方において非常に異質である。
様々なクライアント選択アルゴリズムが開発され、モデルカバレッジと精度の点で有望な性能向上を示している。
論文 参考訳(メタデータ) (2024-06-03T20:33:17Z) - Adaptive Hybrid Model Pruning in Federated Learning through Loss Exploration [17.589308358508863]
我々は、フェデレートされた損失探索フェーズを利用して、適応型ハイブリッドプルーニングを駆動する革新的アプローチであるAutoFLIPを紹介する。
我々は,AutoFLIPがグローバルコンバージェンスを効率的に加速するだけでなく,従来の手法に比べて精度と堅牢性も向上することを示した。
論文 参考訳(メタデータ) (2024-05-16T17:27:41Z) - Stragglers-Aware Low-Latency Synchronous Federated Learning via Layer-Wise Model Updates [71.81037644563217]
同期フェデレーションラーニング(FL)は、協調エッジラーニングの一般的なパラダイムである。
一部のデバイスは計算資源が限られており、様々な可用性があるため、FLレイテンシはストラグラーに非常に敏感である。
本稿では,NNの最適化手法をバックプロパゲーションにより活用し,グローバルモデルを階層的に更新するストラグラー対応層対応学習(SALF)を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:14:36Z) - AEDFL: Efficient Asynchronous Decentralized Federated Learning with
Heterogeneous Devices [61.66943750584406]
異種環境におけるAEDFL(Asynchronous Efficient Decentralized FL framework)を提案する。
まず、FL収束を改善するための効率的なモデル集約手法を用いた非同期FLシステムモデルを提案する。
次に,より優れた精度を実現するために,動的安定化を考慮したモデル更新手法を提案する。
第3に,通信コストと計算コストを大幅に削減する適応スパース学習法を提案する。
論文 参考訳(メタデータ) (2023-12-18T05:18:17Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - Vertical Federated Learning over Cloud-RAN: Convergence Analysis and
System Optimization [82.12796238714589]
高速かつ正確なモデルアグリゲーションを実現するために,クラウド無線アクセスネットワーク(Cloud-RAN)ベースの垂直FLシステムを提案する。
アップリンクとダウンリンクの両方の伝送を考慮した垂直FLアルゴリズムの収束挙動を特徴付ける。
我々は,連続凸近似と代替凸探索に基づくシステム最適化アルゴリズムを開発した,連系トランシーバとフロントホール量子化設計によるシステム最適化フレームワークを構築した。
論文 参考訳(メタデータ) (2023-05-04T09:26:03Z) - Towards Fairer and More Efficient Federated Learning via
Multidimensional Personalized Edge Models [36.84027517814128]
フェデレートラーニング(FL)は、プライバシーを維持しながら、大規模で地理的に分散したエッジデータをトレーニングする。
複数の次元からFLの不均一性を除去するカスタム・フェデレート・ラーニング(CFL)システムを提案する。
CFLは、オンライントレーニングされたモデル検索ヘルパーと新しい集約アルゴリズムによって、クライアントごとに特別に設計されたグローバルモデルからパーソナライズされたモデルをカスタマイズする。
論文 参考訳(メタデータ) (2023-02-09T06:55:19Z) - Time-sensitive Learning for Heterogeneous Federated Edge Intelligence [52.83633954857744]
フェデレーションエッジインテリジェンス(FEI)システムにおけるリアルタイム機械学習について検討する。
FEIシステムは異種通信と計算資源分布を示す。
本稿では,共有MLモデルの協調学習における全体の実行時間を最小化するために,時間依存型フェデレーションラーニング(TS-FL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-26T08:13:22Z) - AnycostFL: Efficient On-Demand Federated Learning over Heterogeneous
Edge Devices [20.52519915112099]
我々はAny CostFLというコスト調整可能なFLフレームワークを提案し、多様なエッジデバイスがローカル更新を効率的に実行できるようにする。
実験結果から,我々の学習フレームワークは,適切なグローバルテスト精度を実現するために,トレーニング遅延とエネルギー消費の最大1.9倍の削減が可能であることが示唆された。
論文 参考訳(メタデータ) (2023-01-08T15:25:55Z) - FedGPO: Heterogeneity-Aware Global Parameter Optimization for Efficient
Federated Learning [11.093360539563657]
フェデレートラーニング(FL)は、機械学習トレーニングにおけるプライバシリークのリスクに対処するソリューションとして登場した。
我々は,モデル収束を保証しつつ,FLのエネルギー効率を最適化するFedGPOを提案する。
我々の実験では、FedGPOはモデル収束時間を2.4倍改善し、ベースライン設定の3.6倍のエネルギー効率を達成する。
論文 参考訳(メタデータ) (2022-11-30T01:22:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。