論文の概要: Confederated Learning: Federated Learning with Decentralized Edge
Servers
- arxiv url: http://arxiv.org/abs/2205.14905v1
- Date: Mon, 30 May 2022 07:56:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 18:34:51.923817
- Title: Confederated Learning: Federated Learning with Decentralized Edge
Servers
- Title(参考訳): confederated learning: 分散エッジサーバを用いた連合学習
- Authors: Bin Wang, Jun Fang, Hongbin Li, Xiaojun Yuan, and Qing Ling
- Abstract要約: Federated Learning(FL)は、中央サーバでデータを集約することなく、モデルトレーニングを達成可能な、新興の機械学習パラダイムである。
本稿では,各サーバが個々のデバイスに接続されたConFederated Learning(CFL)フレームワークを提案する。
提案アルゴリズムはランダムなスケジューリングポリシを用いて,各イテレーションで各サーバにアクセスするデバイスサブセットをランダムに選択する。
- 参考スコア(独自算出の注目度): 42.766372620288585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is an emerging machine learning paradigm that allows
to accomplish model training without aggregating data at a central server. Most
studies on FL consider a centralized framework, in which a single server is
endowed with a central authority to coordinate a number of devices to perform
model training in an iterative manner. Due to stringent communication and
bandwidth constraints, such a centralized framework has limited scalability as
the number of devices grows. To address this issue, in this paper, we propose a
ConFederated Learning (CFL) framework. The proposed CFL consists of multiple
servers, in which each server is connected with an individual set of devices as
in the conventional FL framework, and decentralized collaboration is leveraged
among servers to make full use of the data dispersed throughout the network. We
develop an alternating direction method of multipliers (ADMM) algorithm for
CFL. The proposed algorithm employs a random scheduling policy which randomly
selects a subset of devices to access their respective servers at each
iteration, thus alleviating the need of uploading a huge amount of information
from devices to servers. Theoretical analysis is presented to justify the
proposed method. Numerical results show that the proposed method can converge
to a decent solution significantly faster than gradient-based FL algorithms,
thus boasting a substantial advantage in terms of communication efficiency.
- Abstract(参考訳): Federated Learning(FL)は、中央サーバでデータを集約することなく、モデルトレーニングを達成可能な、新興の機械学習パラダイムである。
FLに関するほとんどの研究は、単一のサーバに複数のデバイスを協調して反復的にモデルトレーニングを行う中央の権限を与える集中型フレームワークを考察している。
通信の厳しい制約と帯域幅の制約のため、このような集中型フレームワークはデバイス数が増えるにつれてスケーラビリティが制限される。
本稿では,この問題を解決するために,ConFederated Learning(CFL)フレームワークを提案する。
提案したCFLは複数のサーバから構成されており,各サーバは従来のFLフレームワークのようにデバイス群と接続され,サーバ間での分散コラボレーションを利用して,ネットワーク全体に分散したデータを完全に活用する。
CFLのための乗算器(ADMM)アルゴリズムの交互方向法を開発した。
提案するアルゴリズムは、各イテレーションで各サーバにアクセスするデバイスのサブセットをランダムに選択するランダムスケジューリングポリシーを採用しており、デバイスからサーバに大量の情報をアップロードする必要性を軽減している。
提案手法を正当化するために理論的解析を行った。
数値計算により,提案手法は勾配に基づくFLアルゴリズムよりもかなり高速な解に収束できることが示され,通信効率の面で大きな利点がある。
関連論文リスト
- Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - ESFL: Efficient Split Federated Learning over Resource-Constrained Heterogeneous Wireless Devices [22.664980594996155]
フェデレートラーニング(FL)は、複数のパーティ(分散デバイス)が生データを共有せずに機械学習モデルをトレーニングすることを可能にする。
本稿では,中央サーバにおける強力な計算能力を最大限に活用するために,効率的な分割フェデレーション学習アルゴリズム(ESFL)を提案する。
論文 参考訳(メタデータ) (2024-02-24T20:50:29Z) - Scheduling and Communication Schemes for Decentralized Federated
Learning [0.31410859223862103]
勾配降下(SGD)アルゴリズムを用いた分散連合学習(DFL)モデルが導入された。
DFLの3つのスケジューリングポリシーがクライアントと並列サーバ間の通信のために提案されている。
その結果,提案した計画警察は,収束速度と最終グローバルモデルの両方に影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2023-11-27T17:35:28Z) - Communication-Efficient Decentralized Federated Learning via One-Bit
Compressive Sensing [52.402550431781805]
分散連合学習(DFL)は、様々なアプリケーションにまたがる実用性によって人気を博している。
集中型バージョンと比較して、DFLの多数のノード間で共有モデルをトレーニングするのはより難しい。
我々は,iADM (iexact alternating direction method) の枠組みに基づく新しいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-08-31T12:22:40Z) - Multi-Edge Server-Assisted Dynamic Federated Learning with an Optimized
Floating Aggregation Point [51.47520726446029]
協調エッジ学習(CE-FL)は、分散機械学習アーキテクチャである。
CE-FLの過程をモデル化し,分析訓練を行った。
実世界のテストベッドから収集したデータを用いて,本フレームワークの有効性を示す。
論文 参考訳(メタデータ) (2022-03-26T00:41:57Z) - Wireless Communications for Collaborative Federated Learning [160.82696473996566]
IoT(Internet of Things)デバイスは、収集したデータを中央のコントローラに送信することができず、機械学習モデルをトレーニングすることができる。
GoogleのセミナルFLアルゴリズムでは、すべてのデバイスを中央コントローラに直接接続する必要がある。
本稿では,コラボレーティブFL(CFL)と呼ばれる新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-03T20:00:02Z) - A Compressive Sensing Approach for Federated Learning over Massive MIMO
Communication Systems [82.2513703281725]
フェデレートラーニング(Federated Learning)は、無線デバイスとのコラボレーションによって、中央サーバでグローバルモデルをトレーニングするための、プライバシ保護のアプローチである。
本稿では,大規模マルチインプット多出力通信システム上でのフェデレーション学習のための圧縮センシング手法を提案する。
論文 参考訳(メタデータ) (2020-03-18T05:56:27Z) - Federated Learning with Cooperating Devices: A Consensus Approach for
Massive IoT Networks [8.456633924613456]
分散システムにおける機械学習モデルをトレーニングするための新しいパラダイムとして、フェデレートラーニング(FL)が登場している。
提案するFLアルゴリズムは,ネットワーク内のデータ操作を行うデバイスとの協調を利用して,完全に分散された(あるいはサーバレス)学習手法を提案する。
このアプローチは、分散接続とコンピューティングを特徴とするネットワークを超えて、5G 内で FL を統合するための基盤となる。
論文 参考訳(メタデータ) (2019-12-27T15:16:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。