論文の概要: Federated cINN Clustering for Accurate Clustered Federated Learning
- arxiv url: http://arxiv.org/abs/2309.01515v1
- Date: Mon, 4 Sep 2023 10:47:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 19:04:15.176983
- Title: Federated cINN Clustering for Accurate Clustered Federated Learning
- Title(参考訳): 正確なクラスタ化フェデレーション学習のためのフェデレーションcINNクラスタリング
- Authors: Yuhao Zhou, Minjia Shi, Yuxin Tian, Yuanxi Li, Qing Ye and Jiancheng
Lv
- Abstract要約: フェデレートラーニング(FL)は、プライバシを保存する分散機械学習に対する革新的なアプローチである。
本稿では,クライアントを複数のグループに頑健にクラスタリングするFederated cINN Clustering Algorithm (FCCA)を提案する。
- 参考スコア(独自算出の注目度): 33.72494731516968
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Federated Learning (FL) presents an innovative approach to privacy-preserving
distributed machine learning and enables efficient crowd intelligence on a
large scale. However, a significant challenge arises when coordinating FL with
crowd intelligence which diverse client groups possess disparate objectives due
to data heterogeneity or distinct tasks. To address this challenge, we propose
the Federated cINN Clustering Algorithm (FCCA) to robustly cluster clients into
different groups, avoiding mutual interference between clients with data
heterogeneity, and thereby enhancing the performance of the global model.
Specifically, FCCA utilizes a global encoder to transform each client's private
data into multivariate Gaussian distributions. It then employs a generative
model to learn encoded latent features through maximum likelihood estimation,
which eases optimization and avoids mode collapse. Finally, the central server
collects converged local models to approximate similarities between clients and
thus partition them into distinct clusters. Extensive experimental results
demonstrate FCCA's superiority over other state-of-the-art clustered federated
learning algorithms, evaluated on various models and datasets. These results
suggest that our approach has substantial potential to enhance the efficiency
and accuracy of real-world federated learning tasks.
- Abstract(参考訳): 連合学習(federated learning, ffl)は,プライバシを保全する分散機械学習に対する革新的なアプローチを示し,大規模なクラウドインテリジェンスを実現する。
しかし、多様なクライアントグループがデータの不均一性や異なるタスクのために異なる目的を持っているクラウドインテリジェンスとflを協調させると、大きな課題が発生する。
そこで本研究では,異なるグループにロバストにクライアントをクラスタリングし,データの不均一性を持つクライアント間の相互干渉を回避し,グローバルモデルの性能を向上させるための連合型cinnクラスタリングアルゴリズム(fcca)を提案する。
具体的には、FCCAはグローバルエンコーダを使用して、各クライアントのプライベートデータを多変量ガウス分布に変換する。
次に、最大推定によって符号化された潜在特徴を学習するために生成モデルを使用し、最適化を容易化し、モード崩壊を避ける。
最後に、中央サーバは収束したローカルモデルを収集し、クライアント間の類似性を近似し、異なるクラスタに分割する。
FCCAが他の最先端のクラスタ化されたフェデレーション学習アルゴリズムよりも優れており、様々なモデルやデータセットで評価されている。
これらの結果から,本手法は実世界のフェデレーション学習タスクの効率と正確性を高める可能性が示唆された。
関連論文リスト
- FedClust: Tackling Data Heterogeneity in Federated Learning through Weight-Driven Client Clustering [26.478852701376294]
フェデレートラーニング(Federated Learning, FL)は、分散機械学習のパラダイムである。
FLの主な課題の1つは、クライアントデバイスにまたがる不均一なデータ分散の存在である。
我々は,局所モデル重みとクライアントのデータ分布の相関を利用したCFLの新しい手法であるFedClustを提案する。
論文 参考訳(メタデータ) (2024-07-09T02:47:16Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Contrastive encoder pre-training-based clustered federated learning for
heterogeneous data [17.580390632874046]
フェデレートラーニング(FL)は、分散クライアントがデータのプライバシを保持しながら、グローバルモデルを協調的にトレーニングすることを可能にする。
本稿では,モデル収束とFLシステム全体の性能を改善するために,CP-CFL(Contrative Pre-training-based Clustered Federated Learning)を提案する。
論文 参考訳(メタデータ) (2023-11-28T05:44:26Z) - Efficient Cluster Selection for Personalized Federated Learning: A
Multi-Armed Bandit Approach [2.5477011559292175]
フェデレートラーニング(FL)は、データプライバシを優先する、マシンラーニングモデルのための分散トレーニングアプローチを提供する。
本稿では,マルチアームバンディット(MAB)アプローチに触発された動的アッパー信頼境界(dUCB)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-29T16:46:50Z) - Federated Two Stage Decoupling With Adaptive Personalization Layers [5.69361786082969]
フェデレーション学習は、プライバシ制約を維持しながら分散学習を可能にする能力によって、大きな注目を集めている。
本質的には、学習の劣化と収束速度の低下を経験する。
等質なクライアントを同じ群にクラスタリングするという概念を採用することは自然であり、各群内のモデル重みのみを集約することができる。
論文 参考訳(メタデータ) (2023-08-30T07:46:32Z) - FedPNN: One-shot Federated Classification via Evolving Clustering Method
and Probabilistic Neural Network hybrid [4.241208172557663]
本稿では,プライバシ保護を指向した2段階のフェデレーション学習手法を提案する。
第1段階では、2つの異なる分布をノイズとして利用して合成データセットを生成する。
第2段階では,FedPNN(Federated Probabilistic Neural Network)が開発され,グローバルに共有する分類モデルの構築に利用されている。
論文 参考訳(メタデータ) (2023-04-09T03:23:37Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。