論文の概要: FedFly: Towards Migration in Edge-based Distributed Federated Learning
- arxiv url: http://arxiv.org/abs/2111.01516v1
- Date: Tue, 2 Nov 2021 11:44:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-03 18:56:50.310512
- Title: FedFly: Towards Migration in Edge-based Distributed Federated Learning
- Title(参考訳): FedFly: エッジベースの分散フェデレーション学習のマイグレーションを目指す
- Authors: Rehmat Ullah, Di Wu, Paul Harvey, Peter Kilpatrick, Ivor Spence,
Blesson Varghese
- Abstract要約: フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のための分散機械学習技術である。
FedFlyは、FLトレーニング中にデバイスがエッジサーバ間を移動するときに、ディープニューラルネットワーク(DNN)を移行する最初の作業である。
- 参考スコア(独自算出の注目度): 2.5775113252104216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) is a privacy-preserving distributed machine learning
technique that trains models without having direct access to the original data
generated on devices. Since devices may be resource constrained, offloading can
be used to improve FL performance by transferring computational workload from
devices to edge servers. However, due to mobility, devices participating in FL
may leave the network during training and need to connect to a different edge
server. This is challenging because the offloaded computations from edge server
need to be migrated. In line with this assertion, we present FedFly, which is,
to the best of our knowledge, the first work to migrate a deep neural network
(DNN) when devices move between edge servers during FL training. Our empirical
results on the CIFAR-10 dataset, with both balanced and imbalanced data
distribution support our claims that FedFly can reduce training time by up to
33% when a device moves after 50% of the training is completed, and by up to
45% when 90% of the training is completed when compared to state-of-the-art
offloading approach in FL. FedFly has negligible overhead of 2 seconds and does
not compromise accuracy. Finally, we highlight a number of open research issues
for further investigation. FedFly can be downloaded from
https://github.com/qub-blesson/FedFly
- Abstract(参考訳): Federated Learning(FL)は、デバイス上で生成されたオリジナルのデータに直接アクセスすることなくモデルをトレーニングする、プライバシ保護の分散機械学習技術である。
デバイスはリソース制約を受ける可能性があるため、オフロードはデバイスからエッジサーバに計算負荷を転送することでFL性能を改善するために使用できる。
しかし、モビリティのため、flに参加しているデバイスはトレーニング中にネットワークを離れ、異なるエッジサーバに接続する必要がある。
edge serverからオフロードされた計算を移行する必要があるため、これは難しい。
FLトレーニング中にデバイスがエッジサーバ間を移動するときに、ディープニューラルネットワーク(DNN)を移行するための最初の作業である。
CIFAR-10データセットにおける実験結果では、バランスの取れたデータと不均衡なデータ分散の両方で、FedFlyはトレーニングの50%の完了後にデバイスが動き、FLの最先端のオフロードアプローチと比較してトレーニングの90%が完了すると最大で45%のトレーニング時間を最大33%短縮できる、という主張を支持しています。
FedFlyは2秒の無視可能なオーバーヘッドを持ち、精度を損なわない。
最後に、さらなる調査のために、多くのオープンリサーチの問題を強調する。
FedFlyはhttps://github.com/qub-blesson/FedFlyからダウンロードできる。
関連論文リスト
- Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Efficient Asynchronous Federated Learning with Sparsification and
Quantization [55.6801207905772]
フェデレートラーニング(FL)は、生データを転送することなく、機械学習モデルを協調的にトレーニングするために、ますます注目を集めている。
FLは一般的に、モデルトレーニングの全プロセス中にパラメータサーバーと多数のエッジデバイスを利用する。
TEASQ-Fedは、エッジデバイスを利用して、タスクに積極的に適用することで、トレーニングプロセスに非同期に参加する。
論文 参考訳(メタデータ) (2023-12-23T07:47:07Z) - Toward efficient resource utilization at edge nodes in federated
learning [0.7499722271664147]
フェデレートされた学習により、エッジノードは、データを共有することなく、グローバルモデルの構築に協力的に貢献することができる。
計算リソースの制約とネットワーク通信は、ディープラーニングアプリケーションに典型的なより大きなモデルサイズにとって、深刻なボトルネックになる可能性がある。
デバイス上での資源利用を減らすため,転送学習にインスパイアされたFL戦略を提案し,評価する。
論文 参考訳(メタデータ) (2023-09-19T07:04:50Z) - FLEdge: Benchmarking Federated Machine Learning Applications in Edge
Computing Systems [77.45213180689952]
本稿では,エッジコンピューティングシステムにおけるFLワークロードを対象としたベンチマークであるFLEdgeを紹介する。
ハードウェアの不均一性,トレーニング中のエネルギー効率,およびFLシステムのトレーニングに対する各種の差分プライバシーレベルの影響を系統的に研究した。
クライアントのドロップアウトが失敗率50%の最先端のFL戦略に与える影響を評価する。
論文 参考訳(メタデータ) (2023-06-08T13:11:20Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Federated Dynamic Sparse Training: Computing Less, Communicating Less,
Yet Learning Better [88.28293442298015]
Federated Learning (FL)は、クラウドからリソース制限されたエッジデバイスへの機械学習ワークロードの分散を可能にする。
我々は、FedDST(Federated Dynamic Sparse Training)と呼ばれる新しいFLフレームワークを開発し、実装し、実験的に検証する。
FedDSTは、ターゲットのフルネットワークからスパースサブネットワークを抽出し、訓練する動的プロセスである。
論文 参考訳(メタデータ) (2021-12-18T02:26:38Z) - FedAdapt: Adaptive Offloading for IoT Devices in Federated Learning [2.5775113252104216]
Internet-of-Thingsデバイス上でのフェデレートラーニング(FL)は、それらが生成する大量のデータと、データプライバシに関する懸念によって必要になる。
本稿では、上記の課題を軽減するための適応型オフロードFLフレームワークであるFedAdaptについて述べる。
論文 参考訳(メタデータ) (2021-07-09T07:29:55Z) - FedSAE: A Novel Self-Adaptive Federated Learning Framework in
Heterogeneous Systems [14.242716751043533]
Federated Learning(FL)は、何千ものエッジデバイスがデータをサーバに同心的にアップロードすることなく、ローカルにモデルをトレーニングできる、新しい分散機械学習である。
我々は、デバイスの自動トレーニングタスクを調整する新しい自己適応型フェデレーションフレームワークFedSAEを導入し、参加者を積極的に選択してパフォーマンス劣化を緩和する。
このフレームワークでは、サーバは、トレーニング損失に基づいて、デバイスのトレーニング値を評価する。
その後、サーバは、通信のオーバーヘッドを減らすために、グローバルモデルにより大きな価値を持つクライアントを選択する。
論文 参考訳(メタデータ) (2021-04-15T15:14:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。