論文の概要: FedFly: Towards Migration in Edge-based Distributed Federated Learning
- arxiv url: http://arxiv.org/abs/2111.01516v1
- Date: Tue, 2 Nov 2021 11:44:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-03 18:56:50.310512
- Title: FedFly: Towards Migration in Edge-based Distributed Federated Learning
- Title(参考訳): FedFly: エッジベースの分散フェデレーション学習のマイグレーションを目指す
- Authors: Rehmat Ullah, Di Wu, Paul Harvey, Peter Kilpatrick, Ivor Spence,
Blesson Varghese
- Abstract要約: フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のための分散機械学習技術である。
FedFlyは、FLトレーニング中にデバイスがエッジサーバ間を移動するときに、ディープニューラルネットワーク(DNN)を移行する最初の作業である。
- 参考スコア(独自算出の注目度): 2.5775113252104216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) is a privacy-preserving distributed machine learning
technique that trains models without having direct access to the original data
generated on devices. Since devices may be resource constrained, offloading can
be used to improve FL performance by transferring computational workload from
devices to edge servers. However, due to mobility, devices participating in FL
may leave the network during training and need to connect to a different edge
server. This is challenging because the offloaded computations from edge server
need to be migrated. In line with this assertion, we present FedFly, which is,
to the best of our knowledge, the first work to migrate a deep neural network
(DNN) when devices move between edge servers during FL training. Our empirical
results on the CIFAR-10 dataset, with both balanced and imbalanced data
distribution support our claims that FedFly can reduce training time by up to
33% when a device moves after 50% of the training is completed, and by up to
45% when 90% of the training is completed when compared to state-of-the-art
offloading approach in FL. FedFly has negligible overhead of 2 seconds and does
not compromise accuracy. Finally, we highlight a number of open research issues
for further investigation. FedFly can be downloaded from
https://github.com/qub-blesson/FedFly
- Abstract(参考訳): Federated Learning(FL)は、デバイス上で生成されたオリジナルのデータに直接アクセスすることなくモデルをトレーニングする、プライバシ保護の分散機械学習技術である。
デバイスはリソース制約を受ける可能性があるため、オフロードはデバイスからエッジサーバに計算負荷を転送することでFL性能を改善するために使用できる。
しかし、モビリティのため、flに参加しているデバイスはトレーニング中にネットワークを離れ、異なるエッジサーバに接続する必要がある。
edge serverからオフロードされた計算を移行する必要があるため、これは難しい。
FLトレーニング中にデバイスがエッジサーバ間を移動するときに、ディープニューラルネットワーク(DNN)を移行するための最初の作業である。
CIFAR-10データセットにおける実験結果では、バランスの取れたデータと不均衡なデータ分散の両方で、FedFlyはトレーニングの50%の完了後にデバイスが動き、FLの最先端のオフロードアプローチと比較してトレーニングの90%が完了すると最大で45%のトレーニング時間を最大33%短縮できる、という主張を支持しています。
FedFlyは2秒の無視可能なオーバーヘッドを持ち、精度を損なわない。
最後に、さらなる調査のために、多くのオープンリサーチの問題を強調する。
FedFlyはhttps://github.com/qub-blesson/FedFlyからダウンロードできる。
関連論文リスト
- Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Efficient Asynchronous Federated Learning with Sparsification and
Quantization [55.6801207905772]
フェデレートラーニング(FL)は、生データを転送することなく、機械学習モデルを協調的にトレーニングするために、ますます注目を集めている。
FLは一般的に、モデルトレーニングの全プロセス中にパラメータサーバーと多数のエッジデバイスを利用する。
TEASQ-Fedは、エッジデバイスを利用して、タスクに積極的に適用することで、トレーニングプロセスに非同期に参加する。
論文 参考訳(メタデータ) (2023-12-23T07:47:07Z) - FLEdge: Benchmarking Federated Machine Learning Applications in Edge Computing Systems [61.335229621081346]
フェデレートラーニング(FL)は,ネットワークエッジ上での分散ディープラーニングのプライバシ強化を実現する上で,有効なテクニックとなっている。
本稿では,既存のFLベンチマークを補完するFLEdgeを提案する。
論文 参考訳(メタデータ) (2023-06-08T13:11:20Z) - Enhancing Efficiency in Multidevice Federated Learning through Data Selection [11.67484476827617]
マルチデバイス環境におけるフェデレーション学習(FL)は、膨大な量のプライベートデータから学習する新たな機会を生み出す。
本稿では、デバイス上のデータ選択を制約されたデバイスに組み込むためのFLフレームワークを開発する。
我々のフレームワークは,実装戦略のないベースラインFLと比較して,19%の精度,58%のレイテンシを実現している。
論文 参考訳(メタデータ) (2022-11-08T11:39:17Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Federated Dynamic Sparse Training: Computing Less, Communicating Less,
Yet Learning Better [88.28293442298015]
Federated Learning (FL)は、クラウドからリソース制限されたエッジデバイスへの機械学習ワークロードの分散を可能にする。
我々は、FedDST(Federated Dynamic Sparse Training)と呼ばれる新しいFLフレームワークを開発し、実装し、実験的に検証する。
FedDSTは、ターゲットのフルネットワークからスパースサブネットワークを抽出し、訓練する動的プロセスである。
論文 参考訳(メタデータ) (2021-12-18T02:26:38Z) - FedAdapt: Adaptive Offloading for IoT Devices in Federated Learning [2.5775113252104216]
Internet-of-Thingsデバイス上でのフェデレートラーニング(FL)は、それらが生成する大量のデータと、データプライバシに関する懸念によって必要になる。
本稿では、上記の課題を軽減するための適応型オフロードFLフレームワークであるFedAdaptについて述べる。
論文 参考訳(メタデータ) (2021-07-09T07:29:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。