論文の概要: FLAGS Framework for Comparative Analysis of Federated Learning
Algorithms
- arxiv url: http://arxiv.org/abs/2212.07179v1
- Date: Wed, 14 Dec 2022 12:08:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 14:26:09.144029
- Title: FLAGS Framework for Comparative Analysis of Federated Learning
Algorithms
- Title(参考訳): フェデレーション学習アルゴリズムの比較解析のためのFLAGSフレームワーク
- Authors: Ahnaf Hannan Lodhi, Bar{\i}\c{s} Akg\"un, \"Oznur \"Ozkasap
- Abstract要約: この研究は、フェデレートラーニングのランドスケープを統合し、主要なFLアルゴリズムの客観的分析を提供する。
FLAGS: Federated Learning AlGorithms Simulationを開発した。
実験の結果,完全分散FLアルゴリズムは複数の動作条件下で同等の精度が得られることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) has become a key choice for distributed machine
learning. Initially focused on centralized aggregation, recent works in FL have
emphasized greater decentralization to adapt to the highly heterogeneous
network edge. Among these, Hierarchical, Device-to-Device and Gossip Federated
Learning (HFL, D2DFL \& GFL respectively) can be considered as foundational FL
algorithms employing fundamental aggregation strategies. A number of FL
algorithms were subsequently proposed employing multiple fundamental
aggregation schemes jointly. Existing research, however, subjects the FL
algorithms to varied conditions and gauges the performance of these algorithms
mainly against Federated Averaging (FedAvg) only. This work consolidates the FL
landscape and offers an objective analysis of the major FL algorithms through a
comprehensive cross-evaluation for a wide range of operating conditions. In
addition to the three foundational FL algorithms, this work also analyzes six
derived algorithms. To enable a uniform assessment, a multi-FL framework named
FLAGS: Federated Learning AlGorithms Simulation has been developed for rapid
configuration of multiple FL algorithms. Our experiments indicate that fully
decentralized FL algorithms achieve comparable accuracy under multiple
operating conditions, including asynchronous aggregation and the presence of
stragglers. Furthermore, decentralized FL can also operate in noisy
environments and with a comparably higher local update rate. However, the
impact of extremely skewed data distributions on decentralized FL is much more
adverse than on centralized variants. The results indicate that it may not be
necessary to restrict the devices to a single FL algorithm; rather, multi-FL
nodes may operate with greater efficiency.
- Abstract(参考訳): フェデレートラーニング(FL)は分散機械学習の重要な選択肢となっている。
当初集中集約に重点を置いていたflの最近の研究は、高度に異質なネットワークエッジに適応するために、より大規模な分散化を強調している。
これらのうち、階層型、デバイスからデバイスへのフェデレーション学習(HFL、D2DFL、GFL)は、基本集合戦略を用いた基礎FLアルゴリズムとみなすことができる。
その後、複数の基本集約スキームを併用したflアルゴリズムが多数提案されている。
しかし、既存の研究はFLアルゴリズムに様々な条件を課し、これらのアルゴリズムの性能を主にフェデレート平均化(FedAvg)に対して評価している。
この研究は、FLのランドスケープを集約し、幅広い操作条件に対する総合的な相互評価を通じて、主要なFLアルゴリズムの客観的解析を提供する。
3つの基本的なFLアルゴリズムに加えて、6つの派生アルゴリズムも解析する。
統一評価を可能にするために、複数のflアルゴリズムの迅速な構成のために、frags: federated learning algorithms simulationというマルチflフレームワークが開発された。
実験の結果,非同期アグリゲーションやストラグラーの存在など,複数の動作条件下での完全分散FLアルゴリズムの精度は同等であることが示唆された。
さらに、分散flはノイズの多い環境でも動作でき、同時にローカル更新率も高い。
しかし,極度に歪んだデータ分布が分散FLに与える影響は,集中的変動よりもはるかに悪い。
その結果、デバイスを単一のFLアルゴリズムに制限する必要はなく、むしろ複数のFLノードがより効率よく動作できることが示唆された。
関連論文リスト
- Where is the Testbed for my Federated Learning Research? [3.910931245706272]
本稿では,連邦学習(FL)研究のための実世界テストベッドであるCoLExTを紹介する。
CoLExTは、リッチなテストベッド構成空間におけるカスタムFLアルゴリズムの実験を合理化するように設計されている。
CoLExT上で動作する一般的なFLアルゴリズムに関する最初の調査を通じて、これまで未知のトレードオフ、非効率性、およびプログラミングバグを明らかにした。
論文 参考訳(メタデータ) (2024-07-19T09:34:04Z) - Not All Federated Learning Algorithms Are Created Equal: A Performance Evaluation Study [1.9265466185360185]
フェデレートラーニング(FL)は、分散データからモデルをトレーニングするための実践的なアプローチとして登場した。
このギャップを埋めるために、いくつかの標準FLアルゴリズムで広範な性能評価を行う。
我々の総合的な測定結果から、異なるパフォーマンス指標に対して1つのアルゴリズムが最善を尽くさないことが判明した。
論文 参考訳(メタデータ) (2024-03-26T00:33:49Z) - Automated Federated Learning in Mobile Edge Networks -- Fast Adaptation
and Convergence [83.58839320635956]
フェデレートラーニング(FL)は、モバイルエッジネットワークで機械学習モデルを分散的にトレーニングするために使用することができる。
最近のFLは、モデルに依存しないメタラーニング(MAML)フレームワークで解釈されている。
本稿は,MAMLがFLにもたらすメリットと,モバイルエッジネットワーク上でのメリットの最大化について論じる。
論文 参考訳(メタデータ) (2023-03-23T02:42:10Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - NET-FLEET: Achieving Linear Convergence Speedup for Fully Decentralized
Federated Learning with Heterogeneous Data [12.701031075169887]
フェデレーテッド・ラーニング(FL)は、データプライバシ保護、効率的な通信、並列データ処理といったメリットにより、近年、注目を集めている。
FLの既存の作業の多くは、データと集中型パラメータサーバを持つシステムに限られている。
我々は、データ不均一性を持つ完全分散FLシステムのための新しいアルゴリズム、NET-FLEETを提案する。
論文 参考訳(メタデータ) (2022-08-17T19:17:23Z) - Single-shot Hyper-parameter Optimization for Federated Learning: A
General Algorithm & Analysis [20.98323380319439]
本稿では一般のFL-HPOソリューションフレームワークであるFederated Loss SuRface Aggregation (FLoRA)を紹介する。
FLoRAはシングルショットFL-HPOを可能にし、単一のFLトレーニングで使用される優れたハイパーパラメータのセットを識別する。
7つのOpenMLデータセット上での複数MLアルゴリズムに対するFLoRAの実証評価により,検討したベースラインに対するモデル精度の大幅な向上が示された。
論文 参考訳(メタデータ) (2022-02-16T21:14:34Z) - Hybrid Federated Learning: Algorithms and Implementation [61.0640216394349]
Federated Learning(FL)は、分散データセットとプライベートデータセットを扱う分散機械学習パラダイムである。
ハイブリッドFLのためのモデルマッチングに基づく新しい問題定式化を提案する。
次に,グローバルモデルとローカルモデルを協調して学習し,完全かつ部分的な特徴量を扱う効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-22T23:56:03Z) - FedML: A Research Library and Benchmark for Federated Machine Learning [55.09054608875831]
フェデレート・ラーニング(Federated Learning, FL)は、機械学習の分野で急速に成長している研究分野である。
既存のFLライブラリは多様なアルゴリズム開発を適切にサポートできない。
FLアルゴリズムの開発と公正な性能比較を容易にするための,オープンな研究ライブラリとベンチマークであるFedMLを紹介する。
論文 参考訳(メタデータ) (2020-07-27T13:02:08Z) - Delay Minimization for Federated Learning Over Wireless Communication
Networks [172.42768672943365]
無線通信ネットワーク上でのフェデレーション学習(FL)における遅延計算の問題について検討した。
最適解を得るために,二項探索アルゴリズムを提案する。
シミュレーションの結果,提案アルゴリズムは従来のFL法と比較して最大27.3%遅延を低減できることがわかった。
論文 参考訳(メタデータ) (2020-07-05T19:00:07Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。