論文の概要: Fedstellar: A Platform for Decentralized Federated Learning
- arxiv url: http://arxiv.org/abs/2306.09750v4
- Date: Mon, 8 Apr 2024 11:38:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-10 05:17:18.038102
- Title: Fedstellar: A Platform for Decentralized Federated Learning
- Title(参考訳): Fedstellar: 分散型フェデレーションラーニングのためのプラットフォーム
- Authors: Enrique Tomás Martínez Beltrán, Ángel Luis Perales Gómez, Chao Feng, Pedro Miguel Sánchez Sánchez, Sergio López Bernal, Gérôme Bovet, Manuel Gil Pérez, Gregorio Martínez Pérez, Alberto Huertas Celdrán,
- Abstract要約: 2016年、Googleはフェデレーション(FL)を、フェデレーションの参加者間で機械学習(ML)モデルをトレーニングするための新しいパラダイムとして提案した。
本稿では,Fedstellarについて述べる。Fedstellarは,多種多様なフェデレーションにまたがる分散化・半分散化・集中化方式でFLモデルを学習するためのプラットフォームである。
- 参考スコア(独自算出の注目度): 10.014744081331672
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In 2016, Google proposed Federated Learning (FL) as a novel paradigm to train Machine Learning (ML) models across the participants of a federation while preserving data privacy. Since its birth, Centralized FL (CFL) has been the most used approach, where a central entity aggregates participants' models to create a global one. However, CFL presents limitations such as communication bottlenecks, single point of failure, and reliance on a central server. Decentralized Federated Learning (DFL) addresses these issues by enabling decentralized model aggregation and minimizing dependency on a central entity. Despite these advances, current platforms training DFL models struggle with key issues such as managing heterogeneous federation network topologies. To overcome these challenges, this paper presents Fedstellar, a platform extended from p2pfl library and designed to train FL models in a decentralized, semi-decentralized, and centralized fashion across diverse federations of physical or virtualized devices. The Fedstellar implementation encompasses a web application with an interactive graphical interface, a controller for deploying federations of nodes using physical or virtual devices, and a core deployed on each device which provides the logic needed to train, aggregate, and communicate in the network. The effectiveness of the platform has been demonstrated in two scenarios: a physical deployment involving single-board devices such as Raspberry Pis for detecting cyberattacks, and a virtualized deployment comparing various FL approaches in a controlled environment using MNIST and CIFAR-10 datasets. In both scenarios, Fedstellar demonstrated consistent performance and adaptability, achieving F1 scores of 91%, 98%, and 91.2% using DFL for detecting cyberattacks and classifying MNIST and CIFAR-10, respectively, reducing training time by 32% compared to centralized approaches.
- Abstract(参考訳): 2016年、Googleはフェデレート・ラーニング(FL)を、データプライバシを保持しながらフェデレーションの参加者間で機械学習(ML)モデルをトレーニングするための新しいパラダイムとして提案した。
中央集権FL(CFL)は、その誕生以来、参加者のモデルを集約してグローバルなモデルを作成する最もよく使われるアプローチである。
しかし、CFLは通信ボトルネック、単一障害点、中央サーバへの依存といった制限を提示している。
分散フェデレートラーニング(DFL)は、分散モデルアグリゲーションを可能にし、中央エンティティへの依存性を最小限にすることで、これらの問題に対処する。
これらの進歩にもかかわらず、DFLモデルを訓練する現在のプラットフォームは、ヘテロジニアスフェデレーションネットワークトポロジの管理のような重要な問題に悩まされている。
これらの課題を克服するために,P2pflライブラリから拡張されたプラットフォームであるFedstellarを提案する。
Fedstellarの実装には、インタラクティブなグラフィカルインターフェースを備えたWebアプリケーション、物理または仮想デバイスを使用してノードのフェデレーションをデプロイするコントローラ、ネットワーク内のトレーニング、集約、通信に必要なロジックを提供する各デバイスにデプロイされるコアが含まれている。
プラットフォームの有効性は、サイバー攻撃を検出するRaspberry Piのようなシングルボードデバイスを含む物理的なデプロイメントと、MNISTとCIFAR-10データセットを使用して制御された環境でさまざまなFLアプローチを比較する仮想化デプロイメントの2つのシナリオで実証されている。
両方のシナリオにおいてフェデスタラーは、一貫したパフォーマンスと適応性を示し、サイバー攻撃を検出し、MNISTとCIFAR-10をそれぞれ分類するためにDFLを使用してF1スコア91%、98%、91.2%を達成し、集中的なアプローチと比較してトレーニング時間を32%削減した。
関連論文リスト
- Towards More Suitable Personalization in Federated Learning via
Decentralized Partial Model Training [67.67045085186797]
既存のシステムのほとんどは、中央のFLサーバが失敗した場合、大きな通信負荷に直面しなければならない。
共有パラメータと個人パラメータを交互に更新することで、ディープモデルの「右」をパーソナライズする。
共有パラメータアグリゲーションプロセスをさらに促進するために、ローカルシャープネス最小化を統合するDFedを提案する。
論文 参考訳(メタデータ) (2023-05-24T13:52:18Z) - Hierarchical Personalized Federated Learning Over Massive Mobile Edge
Computing Networks [95.39148209543175]
大規模MECネットワーク上でPFLをデプロイするアルゴリズムである階層型PFL(HPFL)を提案する。
HPFLは、最適帯域割り当てを共同で決定しながら、トレーニング損失最小化とラウンドレイテンシ最小化の目的を組み合わせる。
論文 参考訳(メタデータ) (2023-03-19T06:00:05Z) - Event-Triggered Decentralized Federated Learning over
Resource-Constrained Edge Devices [12.513477328344255]
Federated Learning (FL)は分散機械学習(ML)のための技術である
従来のFLアルゴリズムでは、エッジで訓練されたモデルを中央サーバに定期的に送信して集約する。
我々は、デバイスが協調的なコンセンサス形成を通じてモデルアグリゲーションを行う完全分散FLのための新しい手法を開発した。
論文 参考訳(メタデータ) (2022-11-23T00:04:05Z) - FedHiSyn: A Hierarchical Synchronous Federated Learning Framework for
Resource and Data Heterogeneity [56.82825745165945]
フェデレートラーニング(FL)は、データプライバシを保護するために複数のデバイスに格納された分散生データを共有することなく、グローバルモデルのトレーニングを可能にする。
本稿では,階層型同期FLフレームワークであるFedHiSynを提案し,トラグラー効果や時代遅れモデルの問題に対処する。
提案手法は,MNIST,EMNIST,CIFAR10,CIFAR100のデータセットと多種多様なデバイス設定に基づいて評価する。
論文 参考訳(メタデータ) (2022-06-21T17:23:06Z) - Confederated Learning: Federated Learning with Decentralized Edge
Servers [42.766372620288585]
Federated Learning(FL)は、中央サーバでデータを集約することなく、モデルトレーニングを達成可能な、新興の機械学習パラダイムである。
本稿では,各サーバが個々のデバイスに接続されたConFederated Learning(CFL)フレームワークを提案する。
提案アルゴリズムはランダムなスケジューリングポリシを用いて,各イテレーションで各サーバにアクセスするデバイスサブセットをランダムに選択する。
論文 参考訳(メタデータ) (2022-05-30T07:56:58Z) - Multi-Edge Server-Assisted Dynamic Federated Learning with an Optimized
Floating Aggregation Point [51.47520726446029]
協調エッジ学習(CE-FL)は、分散機械学習アーキテクチャである。
CE-FLの過程をモデル化し,分析訓練を行った。
実世界のテストベッドから収集したデータを用いて,本フレームワークの有効性を示す。
論文 参考訳(メタデータ) (2022-03-26T00:41:57Z) - DACFL: Dynamic Average Consensus Based Federated Learning in
Decentralized Topology [4.234367850767171]
Federated Learning(FL)は、中央パラメータサーバが多くのローカルユーザをコーディネートして、グローバルに一貫したモデルをトレーニングする分散機械学習フレームワークである。
本稿では,DACFLという新しいDFL実装を考案し,各ユーザが独自のトレーニングデータを用いてモデルをトレーニングし,その中間モデルと近隣モデルとの交換を行う。
DACFLは、各ユーザのローカルトレーニングの進捗を離散時間プロセスとして扱い、PSの欠如をトラッキングするために、第1次動的平均コンセンサス(FODAC)手法を用いる。
論文 参考訳(メタデータ) (2021-11-10T03:00:40Z) - A Framework for Energy and Carbon Footprint Analysis of Distributed and
Federated Edge Learning [48.63610479916003]
本稿では,分散学習政策の環境フットプリントに影響を与える要因を概説し,分析する。
バニラとコンセンサスによって駆動される分散FLポリシーの両方をモデル化する。
その結果、flは低ビット/ジュール効率を特徴とするワイヤレスシステムにおいて、顕著なエンドツーエンドの省エネ(30%-40%)が可能となった。
論文 参考訳(メタデータ) (2021-03-18T16:04:42Z) - IPLS : A Framework for Decentralized Federated Learning [6.6271520914941435]
IPLSは、惑星間ファイルシステム(IPFS)を部分的にベースとする完全分散型のフェデレーション学習フレームワークです。
IPLSは、参加者数に応じてスケールし、断続接続や動的入場/到着に対して堅牢であり、最小限のリソースを必要とし、トレーニングされたモデルの精度が1000分の1の精度低下を伴う集中FLフレームワークの精度に迅速に収束することを保証する。
論文 参考訳(メタデータ) (2021-01-06T07:44:51Z) - Wireless Communications for Collaborative Federated Learning [160.82696473996566]
IoT(Internet of Things)デバイスは、収集したデータを中央のコントローラに送信することができず、機械学習モデルをトレーニングすることができる。
GoogleのセミナルFLアルゴリズムでは、すべてのデバイスを中央コントローラに直接接続する必要がある。
本稿では,コラボレーティブFL(CFL)と呼ばれる新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-03T20:00:02Z) - Federated Learning with Cooperating Devices: A Consensus Approach for
Massive IoT Networks [8.456633924613456]
分散システムにおける機械学習モデルをトレーニングするための新しいパラダイムとして、フェデレートラーニング(FL)が登場している。
提案するFLアルゴリズムは,ネットワーク内のデータ操作を行うデバイスとの協調を利用して,完全に分散された(あるいはサーバレス)学習手法を提案する。
このアプローチは、分散接続とコンピューティングを特徴とするネットワークを超えて、5G 内で FL を統合するための基盤となる。
論文 参考訳(メタデータ) (2019-12-27T15:16:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。