論文の概要: Centaur: Federated Learning for Constrained Edge Devices
- arxiv url: http://arxiv.org/abs/2211.04175v1
- Date: Tue, 8 Nov 2022 11:39:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 16:46:31.830455
- Title: Centaur: Federated Learning for Constrained Edge Devices
- Title(参考訳): Centaur: 制約のあるエッジデバイスのためのフェデレーション学習
- Authors: Fan Mo, Mohammad Malekzadeh, Soumyajit Chatterjee, Fahim Kawsar, Akhil
Mathur
- Abstract要約: ディープニューラルネットワーク上のフェデレーション学習(FL)は、エッジにおける新しいアプリケーションを促進する。
このようなデバイスは、大量の多様なデータをキャプチャするが、メモリ、計算、電力、接続性の制約がある。
マルチ層FLフレームワークであるCentaurを提案し,超制約デバイスが大規模ニューラルネットワーク上でFLに効率的に参加できるようにする。
- 参考スコア(独自算出の注目度): 11.343079945149633
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated learning (FL) on deep neural networks facilitates new applications
at the edge, especially for wearable and Internet-of-Thing devices. Such
devices capture a large and diverse amount of data, but they have memory,
compute, power, and connectivity constraints which hinder their participation
in FL. We propose Centaur, a multitier FL framework, enabling ultra-constrained
devices to efficiently participate in FL on large neural nets. Centaur combines
two major ideas: (i) a data selection scheme to choose a portion of samples
that accelerates the learning, and (ii) a partition-based training algorithm
that integrates both constrained and powerful devices owned by the same user.
Evaluations, on four benchmark neural nets and three datasets, show that
Centaur gains ~10% higher accuracy than local training on constrained devices
with ~58% energy saving on average. Our experimental results also demonstrate
the superior efficiency of Centaur when dealing with imbalanced data, client
participation heterogeneity, and various network connection probabilities.
- Abstract(参考訳): ディープニューラルネットワーク上のフェデレーション学習(fl)は、エッジ、特にウェアラブルおよびiotデバイスで新しいアプリケーションを促進する。
このようなデバイスは、大量の多様なデータをキャプチャするが、メモリ、計算、電力、接続の制約があり、FLへの参加を妨げる。
マルチ層FLフレームワークであるCentaurを提案し,超制約デバイスが大規模ニューラルネットワーク上でFLに効率的に参加できるようにする。
centaurは2つの主要なアイデアを組み合わせる。
(i)学習を加速するサンプルの一部を選択するためのデータ選択方式
(ii)同一ユーザが所有する制約されたデバイスと強力なデバイスの両方を統合するパーティションベースのトレーニングアルゴリズム。
4つのベンチマークニューラルネットと3つのデータセットによる評価では、centaurは平均58%の省エネ率を持つ制約付きデバイスでのローカルトレーニングよりも10%高い精度を得ている。
実験の結果,不均衡なデータ,クライアント参加の不均一性,ネットワーク接続確率などを扱う際のCentaurの効率性も向上した。
関連論文リスト
- Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - TurboSVM-FL: Boosting Federated Learning through SVM Aggregation for
Lazy Clients [44.44776028287441]
TurboSVM-FLは、クライアント側で追加の計算負荷を発生させることのない、新しい統合集約戦略である。
我々は、FEMNIST、CelebA、シェークスピアを含む複数のデータセット上でTurboSVM-FLを評価する。
論文 参考訳(メタデータ) (2024-01-22T14:59:11Z) - Efficient Asynchronous Federated Learning with Sparsification and
Quantization [55.6801207905772]
フェデレートラーニング(FL)は、生データを転送することなく、機械学習モデルを協調的にトレーニングするために、ますます注目を集めている。
FLは一般的に、モデルトレーニングの全プロセス中にパラメータサーバーと多数のエッジデバイスを利用する。
TEASQ-Fedは、エッジデバイスを利用して、タスクに積極的に適用することで、トレーニングプロセスに非同期に参加する。
論文 参考訳(メタデータ) (2023-12-23T07:47:07Z) - FedDCT: Federated Learning of Large Convolutional Neural Networks on
Resource Constrained Devices using Divide and Collaborative Training [13.072061144206097]
我々は,リソース制限エッジデバイス上で大規模かつ高性能なCNNを使用できる分散学習パラダイムであるFedDCTを紹介する。
我々は、CIFAR-10、CIFAR-100、および2つの実世界の医療データセットHAM10000、VAIPEを含む標準化されたデータセットの実験を経験的に実施する。
他の既存手法と比較して、FedDCTは精度が高く、通信ラウンドの回数を大幅に削減する。
論文 参考訳(メタデータ) (2022-11-20T11:11:56Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Multi-Edge Server-Assisted Dynamic Federated Learning with an Optimized
Floating Aggregation Point [51.47520726446029]
協調エッジ学習(CE-FL)は、分散機械学習アーキテクチャである。
CE-FLの過程をモデル化し,分析訓練を行った。
実世界のテストベッドから収集したデータを用いて,本フレームワークの有効性を示す。
論文 参考訳(メタデータ) (2022-03-26T00:41:57Z) - Federated Dynamic Sparse Training: Computing Less, Communicating Less,
Yet Learning Better [88.28293442298015]
Federated Learning (FL)は、クラウドからリソース制限されたエッジデバイスへの機械学習ワークロードの分散を可能にする。
我々は、FedDST(Federated Dynamic Sparse Training)と呼ばれる新しいFLフレームワークを開発し、実装し、実験的に検証する。
FedDSTは、ターゲットのフルネットワークからスパースサブネットワークを抽出し、訓練する動的プロセスである。
論文 参考訳(メタデータ) (2021-12-18T02:26:38Z) - Flexible Clustered Federated Learning for Client-Level Data Distribution
Shift [13.759582953827229]
フレキシブルクラスタ型連合学習(CFL)フレームワークFlexCFLを提案する。
FEMNISTではFedAvgに比べて,FlexCFLでは絶対テスト精度が+10.6%向上することが示された。
また、いくつかのオープンデータセット上でFlexCFLを評価し、関連するCFLフレームワークと比較した。
論文 参考訳(メタデータ) (2021-08-22T15:11:39Z) - To Talk or to Work: Flexible Communication Compression for Energy
Efficient Federated Learning over Heterogeneous Mobile Edge Devices [78.38046945665538]
巨大なモバイルエッジデバイス上でのフェデレーション学習(FL)は、多数のインテリジェントなモバイルアプリケーションのための新たな地平を開く。
FLは、定期的なグローバル同期と継続的なローカルトレーニングにより、参加するデバイスに膨大な通信と計算負荷を課す。
フレキシブルな通信圧縮を可能にする収束保証FLアルゴリズムを開発。
論文 参考訳(メタデータ) (2020-12-22T02:54:18Z) - Accelerating Federated Learning over Reliability-Agnostic Clients in
Mobile Edge Computing Systems [15.923599062148135]
フェデレーション学習は、AIアプリケーションを促進するための、将来性のあるプライバシ保護アプローチとして登場した。
MECアーキテクチャと統合された場合、FLの効率性と効率を最適化することは依然として大きな課題である。
本稿では,MECアーキテクチャのために,HybridFLと呼ばれる多層フェデレート学習プロトコルを設計する。
論文 参考訳(メタデータ) (2020-07-28T17:35:39Z) - Federated Learning with Cooperating Devices: A Consensus Approach for
Massive IoT Networks [8.456633924613456]
分散システムにおける機械学習モデルをトレーニングするための新しいパラダイムとして、フェデレートラーニング(FL)が登場している。
提案するFLアルゴリズムは,ネットワーク内のデータ操作を行うデバイスとの協調を利用して,完全に分散された(あるいはサーバレス)学習手法を提案する。
このアプローチは、分散接続とコンピューティングを特徴とするネットワークを超えて、5G 内で FL を統合するための基盤となる。
論文 参考訳(メタデータ) (2019-12-27T15:16:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。