論文の概要: GLow -- A Novel, Flower-Based Simulated Gossip Learning Strategy
- arxiv url: http://arxiv.org/abs/2501.10463v1
- Date: Wed, 15 Jan 2025 11:35:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:23:57.961195
- Title: GLow -- A Novel, Flower-Based Simulated Gossip Learning Strategy
- Title(参考訳): GLow -- 新しいフラワーベースシミュレートされたゴシップ学習戦略
- Authors: Aitor Belenguer, Jose A. Pascual, Javier Navaridas,
- Abstract要約: 本稿では,最先端のフラワーフレームワークを活用することで,独自のゴシップ学習システムをシミュレートする新しい手法を提案する。
具体的には、GLowを導入し、研究者はデバイスのスケーラビリティと収束性をトレーニングし、評価することができる。
MNISTデータセットとCIFAR10データセットでGLowが達成した結果は、それぞれ0.98以上と0.75以上である。
- 参考スコア(独自算出の注目度): 4.91574468325115
- License:
- Abstract: Fully decentralized learning algorithms are still in an early stage of development. Creating modular Gossip Learning strategies is not trivial due to convergence challenges and Byzantine faults intrinsic in systems of decentralized nature. Our contribution provides a novel means to simulate custom Gossip Learning systems by leveraging the state-of-the-art Flower Framework. Specifically, we introduce GLow, which will allow researchers to train and assess scalability and convergence of devices, across custom network topologies, before making a physical deployment. The Flower Framework is selected for being a simulation featured library with a very active community on Federated Learning research. However, Flower exclusively includes vanilla Federated Learning strategies and, thus, is not originally designed to perform simulations without a centralized authority. GLow is presented to fill this gap and make simulation of Gossip Learning systems possible. Results achieved by GLow in the MNIST and CIFAR10 datasets, show accuracies over 0.98 and 0.75 respectively. More importantly, GLow performs similarly in terms of accuracy and convergence to its analogous Centralized and Federated approaches in all designed experiments.
- Abstract(参考訳): 完全に分散化された学習アルゴリズムはまだ開発の初期段階にある。
モジュール型ゴシップ学習戦略の作成は、収束の難しさと、分散された性質のシステムに固有のビザンチンの障害のため、簡単ではない。
私たちのコントリビューションは、最先端のFlower Frameworkを活用して、カスタムのGossip学習システムをシミュレートする新しい手段を提供します。
具体的には、研究者が物理的なデプロイメントを行う前に、カスタムネットワークトポロジを越えて、デバイスのスケーラビリティと収束性をトレーニングし、評価することができるGLowを紹介します。
Flower Frameworkは、フェデレートラーニングの研究で非常に活発なコミュニティを持つシミュレーションライブラリとして選択されている。
しかしながら、Flowerはバニラフェデレートラーニング戦略を排他的に含んでいるため、元々は中央集権的な権威なしにシミュレーションを実行するように設計されていない。
GLowは、このギャップを埋め、ゴシップ学習システムのシミュレーションを可能にする。
MNISTデータセットとCIFAR10データセットでGLowが達成した結果は、それぞれ0.98以上と0.75以上である。
さらに重要なことは、GLowはすべての設計実験において、その類似の集中化およびフェデレーションアプローチと同様に、精度と収束の点で同様に機能する。
関連論文リスト
- A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - Impact of Network Topology on Byzantine Resilience in Decentralized Federated Learning [0.0]
本研究では、複雑な大規模ネットワーク構造における最先端のビザンチン-ロバスト凝集法の効果について検討する。
最先端のビザンツのロバスト・アグリゲーション戦略は、大規模な非完全連結ネットワークではレジリエントではないことが判明した。
論文 参考訳(メタデータ) (2024-07-06T17:47:44Z) - Federated Continual Novel Class Learning [68.05835753892907]
本稿では,グローバルな新規クラス数を正確に推定できるグローバルアライメント学習フレームワークを提案する。
Galは新規クラスの性能を大幅に改善し、精度は5.1%から10.6%に向上した。
Galは、様々な主流のフェデレートラーニングアルゴリズムに新しいクラス発見と学習能力を持たせるのに効果的であることが示されている。
論文 参考訳(メタデータ) (2023-12-21T00:31:54Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Supernet Training for Federated Image Classification under System
Heterogeneity [15.2292571922932]
本研究では,2つのシナリオ,すなわちフェデレーション・オブ・スーパーネット・トレーニング(FedSup)を考えるための新しい枠組みを提案する。
フェデレートラーニング(FL)のモデルアグリゲーション段階でのパラメータの平均化は、スーパーネットトレーニングにおけるウェイトシェアリングとどのように似ているかに着想を得ている。
本フレームワークでは,通信コストの削減とトレーニングオーバーヘッドの低減のために,放送段階のクライアントにサブモデルを送信することで,効率的なアルゴリズム(E-FedSup)を提案する。
論文 参考訳(メタデータ) (2022-06-03T02:21:01Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - SSFL: Tackling Label Deficiency in Federated Learning via Personalized
Self-Supervision [34.38856587032084]
Federated Learning(FL)は、MLトレーニングエコシステムを、クラウド上の集中的な設定から、エッジデバイス上での分散トレーニングへと変えようとしている。
本稿では,自己教師型・パーソナライズド・フェデレーション・ラーニング・フレームワークである,自己教師型フェデレーション・ラーニング(SSFL)を提案する。
FLにおける教師なし学習と教師なし学習との評価精度の差は小さく,合理的であることを示す。
論文 参考訳(メタデータ) (2021-10-06T02:58:45Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z) - Federated Learning in Unreliable and Resource-Constrained Cellular
Wireless Networks [35.80470886180477]
本稿では,セルラー無線ネットワークに適した連合学習アルゴリズムを提案する。
収束を証明し、収束率を最大化する最適なスケジューリングポリシーを提供します。
論文 参考訳(メタデータ) (2020-12-09T16:16:43Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。