論文の概要: FLeet: Online Federated Learning via Staleness Awareness and Performance
Prediction
- arxiv url: http://arxiv.org/abs/2006.07273v2
- Date: Thu, 3 Dec 2020 11:19:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 03:42:15.493134
- Title: FLeet: Online Federated Learning via Staleness Awareness and Performance
Prediction
- Title(参考訳): FLeet: 静的認識とパフォーマンス予測によるオンラインフェデレーション学習
- Authors: Georgios Damaskinos, Rachid Guerraoui, Anne-Marie Kermarrec, Vlad
Nitu, Rhicheek Patra, Francois Taiani
- Abstract要約: 本稿では,最初のオンラインフェデレーション学習システムであるFLeetについて述べる。
オンラインFLは、標準FLのプライバシーとオンライン学習の精度を組み合わせる。
I-Profは新しい軽量プロファイラで、モバイルデバイスにおける学習タスクの影響を予測し、制御する。
AdaSGDは新しい適応学習アルゴリズムで、更新の遅れに耐性がある。
- 参考スコア(独自算出の注目度): 9.408271687085476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is very appealing for its privacy benefits:
essentially, a global model is trained with updates computed on mobile devices
while keeping the data of users local. Standard FL infrastructures are however
designed to have no energy or performance impact on mobile devices, and are
therefore not suitable for applications that require frequent (online) model
updates, such as news recommenders.
This paper presents FLeet, the first Online FL system, acting as a middleware
between the Android OS and the machine learning application. FLeet combines the
privacy of Standard FL with the precision of online learning thanks to two core
components: (i) I-Prof, a new lightweight profiler that predicts and controls
the impact of learning tasks on mobile devices, and (ii) AdaSGD, a new adaptive
learning algorithm that is resilient to delayed updates.
Our extensive evaluation shows that Online FL, as implemented by FLeet, can
deliver a 2.3x quality boost compared to Standard FL, while only consuming
0.036% of the battery per day. I-Prof can accurately control the impact of
learning tasks by improving the prediction accuracy up to 3.6x (computation
time) and up to 19x (energy). AdaSGD outperforms alternative FL approaches by
18.4% in terms of convergence speed on heterogeneous data.
- Abstract(参考訳): 基本的に、グローバルなモデルは、ユーザのデータをローカルに保持しながら、モバイルデバイスで計算されたアップデートでトレーニングされる。
しかし、標準的なFLインフラストラクチャは、モバイルデバイスにエネルギーやパフォーマンスに影響を与えないように設計されているため、ニュースレコメンデータのような頻繁な(オンライン)モデル更新を必要とするアプリケーションには適さない。
本稿では,android osと機械学習アプリケーション間のミドルウェアとして機能する,初のオンラインflシステムであるfleetを提案する。
FLeetは、Standard FLのプライバシーとオンライン学習の精度を2つのコアコンポーネントによって組み合わせている。
(i)新しい軽量プロファイラi-profは、モバイルデバイスにおける学習タスクの影響を予測・制御する。
(ii) AdaSGDは、遅延更新に耐性を持つ新しい適応学習アルゴリズムである。
当社の広範な評価から、fleetが実装したオンラインflは、標準flと比べて2.3倍の品質向上を実現していますが、1日あたりのバッテリー消費量は0.036%に過ぎません。
I-Profは、予測精度を3.6倍(計算時間)、最大19倍(エネルギー)まで改善することで、学習タスクの影響を正確に制御することができる。
AdaSGDは異種データの収束速度において代替FLのアプローチを18.4%上回る。
関連論文リスト
- Can We Theoretically Quantify the Impacts of Local Updates on the Generalization Performance of Federated Learning? [50.03434441234569]
フェデレートラーニング(FL)は、直接データ共有を必要とせず、さまざまなサイトで機械学習モデルをトレーニングする効果により、大きな人気を集めている。
局所的な更新を伴うFLは通信効率のよい分散学習フレームワークであることが様々なアルゴリズムによって示されているが、局所的な更新によるFLの一般化性能は比較的低い。
論文 参考訳(メタデータ) (2024-09-05T19:00:18Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - Automated Federated Learning in Mobile Edge Networks -- Fast Adaptation
and Convergence [83.58839320635956]
フェデレートラーニング(FL)は、モバイルエッジネットワークで機械学習モデルを分散的にトレーニングするために使用することができる。
最近のFLは、モデルに依存しないメタラーニング(MAML)フレームワークで解釈されている。
本稿は,MAMLがFLにもたらすメリットと,モバイルエッジネットワーク上でのメリットの最大化について論じる。
論文 参考訳(メタデータ) (2023-03-23T02:42:10Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - FLAME: Federated Learning Across Multi-device Environments [9.810211000961647]
Federated Learning (FL)は、マシンラーニングモデルの分散トレーニングを可能にし、ユーザデバイス上の個人情報をプライベートに保持する。
ユーザ中心のFLAME学習手法であるFLAMEを提案する。
その結果,FLAMEはF-1スコアが4.8~33.8%,エネルギー効率が1.02~2.86倍,収束速度が2.02倍に向上した。
論文 参考訳(メタデータ) (2022-02-17T22:23:56Z) - Exploring Deep Reinforcement Learning-Assisted Federated Learning for
Online Resource Allocation in EdgeIoT [53.68792408315411]
フェデレートラーニング(FL)は、モバイルエッジコンピューティングベースのInternet of Thing(EdgeIoT)における盗聴攻撃からデータトレーニングプライバシを保護するために、ますます検討されている。
本研究では,連続領域における最適精度とエネルギー収支を達成するために,FLDLT3フレームワークを提案する。
その結果、FL-DLT3は100回未満の高速収束を実現し、FLの精度-エネルギー消費比は既存の最先端ベンチマークと比較して51.8%向上した。
論文 参考訳(メタデータ) (2022-02-15T13:36:15Z) - On-the-fly Resource-Aware Model Aggregation for Federated Learning in
Heterogeneous Edge [15.932747809197517]
エッジコンピューティングは、フレキシブルでセキュアでパフォーマンスの良い特性のおかげで、モバイルとワイヤレスネットワークの世界に革命をもたらした。
本稿では,中央集約サーバを空飛ぶマスタに置き換えるための戦略を詳細に検討する。
本研究は,EdgeAIテストベッドおよび実5Gネットワーク上で実施した測定結果から,空飛ぶマスターFLフレームワークを用いたランタイムの大幅な削減効果を示した。
論文 参考訳(メタデータ) (2021-12-21T19:04:42Z) - Mobility-Aware Cluster Federated Learning in Hierarchical Wireless
Networks [81.83990083088345]
我々は,無線ネットワークにおける階層型フェデレーション学習(HFL)アルゴリズムを特徴付ける理論モデルを開発した。
分析の結果,HFLの学習性能は,ハイモービル利用者の学習能力が著しく低下していることが判明した。
これらの問題を回避するため,我々はMACFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-20T10:46:58Z) - FedFog: Network-Aware Optimization of Federated Learning over Wireless
Fog-Cloud Systems [40.421253127588244]
フェデレートラーニング(FL)は、訓練されたローカルパラメータを定期的に集約することで、複数のエッジユーザにわたって大規模な分散機械学習タスクを実行することができる。
まず,フォグサーバにおける勾配パラメータの局所的な集約と,クラウドでのグローバルトレーニング更新を行うための効率的なFLアルゴリズム(FedFog)を提案する。
論文 参考訳(メタデータ) (2021-07-04T08:03:15Z) - FLaPS: Federated Learning and Privately Scaling [3.618133010429131]
フェデレートラーニング(Federated Learning, FL)とは、データを収集するデバイスにモデルを転送する分散学習プロセスである。
FLaPS(Federated Learning and Privately Scaling)アーキテクチャは,システムのセキュリティとプライバシだけでなく,スケーラビリティも向上する。
論文 参考訳(メタデータ) (2020-09-13T14:20:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。