論文の概要: Stochastic Clustered Federated Learning
- arxiv url: http://arxiv.org/abs/2303.00897v1
- Date: Thu, 2 Mar 2023 01:39:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 16:27:24.422292
- Title: Stochastic Clustered Federated Learning
- Title(参考訳): 確率的クラスタ化フェデレーション学習
- Authors: Dun Zeng, Xiangjing Hu, Shiyu Liu, Yue Yu, Qifan Wang, Zenglin Xu
- Abstract要約: 本稿では,一般の非IID問題に対する新しいクラスタ化フェデレーション学習手法であるStoCFLを提案する。
詳細は、StoCFLは、任意の割合のクライアント参加と新しく加入したクライアントをサポートする柔軟なCFLフレームワークを実装しています。
その結果,StoCFLはクラスタ数の不明な場合でも,有望なクラスタ結果が得られることがわかった。
- 参考スコア(独自算出の注目度): 21.811496586350653
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated learning is a distributed learning framework that takes full
advantage of private data samples kept on edge devices. In real-world federated
learning systems, these data samples are often decentralized and
Non-Independently Identically Distributed (Non-IID), causing divergence and
performance degradation in the federated learning process. As a new solution,
clustered federated learning groups federated clients with similar data
distributions to impair the Non-IID effects and train a better model for every
cluster. This paper proposes StoCFL, a novel clustered federated learning
approach for generic Non-IID issues. In detail, StoCFL implements a flexible
CFL framework that supports an arbitrary proportion of client participation and
newly joined clients for a varying FL system, while maintaining a great
improvement in model performance. The intensive experiments are conducted by
using four basic Non-IID settings and a real-world dataset. The results show
that StoCFL could obtain promising cluster results even when the number of
clusters is unknown. Based on the client clustering results, models trained
with StoCFL outperform baseline approaches in a variety of contexts.
- Abstract(参考訳): フェデレーション学習(Federated Learning)は、エッジデバイスに格納されたプライベートデータサンプルを最大限に活用する分散学習フレームワークである。
実世界のフェデレーション学習システムでは、これらのデータサンプルは分散化され、非独立に独立に分散する(Non-IID)ことが多い。
新しいソリューションとして、クラスタ化されたフェデレーション学習グループは、同様のデータ分散を持つクライアントをフェデレーションし、非iid効果を損なうとともに、クラスタ毎によりよいモデルをトレーニングした。
本稿では,非IID問題に対する新しいクラスタ化フェデレーション学習手法であるStoCFLを提案する。
詳細は、StoCFLはフレキシブルなCFLフレームワークを実装しています。これは、任意の割合のクライアント参加と、さまざまなFLシステムのために新しく加入したクライアントをサポートします。
4つの基本的非IID設定と実世界のデータセットを用いて集中的な実験を行う。
その結果,socflはクラスタ数不明であっても有望なクラスタ結果が得られることがわかった。
クライアントクラスタリングの結果に基づいて、StoCFLでトレーニングされたモデルは、さまざまなコンテキストにおけるベースラインアプローチより優れています。
関連論文リスト
- Novel clustered federated learning based on local loss [14.380553970274242]
本稿では,学習におけるデータ分布を評価するための新しい指標LCFLを提案する。
学習要件と整合し、プライバシー上の懸念に正確に対応し、より正確な分類を提供する。
論文 参考訳(メタデータ) (2024-07-12T15:37:05Z) - FedClust: Tackling Data Heterogeneity in Federated Learning through Weight-Driven Client Clustering [26.478852701376294]
フェデレートラーニング(Federated Learning, FL)は、分散機械学習のパラダイムである。
FLの主な課題の1つは、クライアントデバイスにまたがる不均一なデータ分散の存在である。
我々は,局所モデル重みとクライアントのデータ分布の相関を利用したCFLの新しい手法であるFedClustを提案する。
論文 参考訳(メタデータ) (2024-07-09T02:47:16Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FedClust: Optimizing Federated Learning on Non-IID Data through
Weight-Driven Client Clustering [28.057411252785176]
Federated Learning(FL)は、分散型デバイス上で、ローカルデータを公開せずにコラボレーティブなモデルトレーニングを可能にする、新興の分散機械学習パラダイムである。
本稿では,局所モデル重みとクライアントデータ分布の相関を利用した新しいCFL手法であるFedClustを提案する。
論文 参考訳(メタデータ) (2024-03-07T01:50:36Z) - Contrastive encoder pre-training-based clustered federated learning for
heterogeneous data [17.580390632874046]
フェデレートラーニング(FL)は、分散クライアントがデータのプライバシを保持しながら、グローバルモデルを協調的にトレーニングすることを可能にする。
本稿では,モデル収束とFLシステム全体の性能を改善するために,CP-CFL(Contrative Pre-training-based Clustered Federated Learning)を提案する。
論文 参考訳(メタデータ) (2023-11-28T05:44:26Z) - Find Your Optimal Assignments On-the-fly: A Holistic Framework for
Clustered Federated Learning [5.045379017315639]
Federated Learning(FL)は、エッジデバイスにデータを格納することでクライアントのプライバシを保護する、新興の分散機械学習アプローチである。
近年の研究では、異なるクラスタに分散シフトしたクライアントをグループ化することで、FLにおけるクライアントの不均一性に取り組むためのソリューションとしてクラスタリングが提案されている。
本稿では,現在のクラスタリングFL手法を包括的に検討し,既存のアプローチを包括・拡張するための4層フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-09T04:23:11Z) - PFL-GAN: When Client Heterogeneity Meets Generative Models in
Personalized Federated Learning [55.930403371398114]
パーソナライズドラーニング(PFL)のための新しいGAN(Generative Adversarial Network)の共有と集約戦略を提案する。
PFL-GANは、異なるシナリオにおけるクライアントの不均一性に対処する。より具体的には、まずクライアント間の類似性を学び、次に重み付けされた協調データアグリゲーションを開発する。
いくつかのよく知られたデータセットに対する厳密な実験による実験結果は、PFL-GANの有効性を示している。
論文 参考訳(メタデータ) (2023-08-23T22:38:35Z) - FedABC: Targeting Fair Competition in Personalized Federated Learning [76.9646903596757]
フェデレートラーニングは、クライアントのローカルプライベートデータにアクセスすることなく、モデルを協調的にトレーニングすることを目的としている。
我々はFedABCと呼ばれるバイナリ分類によるFederated Averagingと呼ばれる新規で汎用的なPFLフレームワークを提案する。
特に、各クライアントに1対1のトレーニング戦略を採用して、クラス間の不公平な競争を軽減する。
論文 参考訳(メタデータ) (2023-02-15T03:42:59Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - On the Convergence of Clustered Federated Learning [57.934295064030636]
統合学習システムでは、例えばモバイルデバイスや組織参加者といったクライアントは通常、個人の好みや行動パターンが異なる。
本稿では,クライアントグループと各クライアントを統一最適化フレームワークで活用する,新しい重み付きクライアントベースクラスタリングFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-13T02:39:19Z) - Heterogeneous Federated Learning via Grouped Sequential-to-Parallel
Training [60.892342868936865]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のためのコラボレーション機械学習パラダイムである。
本稿では,この課題に対処するため,データヘテロジニアス・ロバストFLアプローチであるFedGSPを提案する。
その結果,FedGSPは7つの最先端アプローチと比較して平均3.7%の精度向上を実現していることがわかった。
論文 参考訳(メタデータ) (2022-01-31T03:15:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。