論文の概要: One-Shot Clustering for Federated Learning Under Clustering-Agnostic Assumption
- arxiv url: http://arxiv.org/abs/2509.01587v1
- Date: Mon, 01 Sep 2025 16:18:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.771104
- Title: One-Shot Clustering for Federated Learning Under Clustering-Agnostic Assumption
- Title(参考訳): クラスタリング非依存によるフェデレーション学習のためのワンショットクラスタリング
- Authors: Maciej Krzysztof Zuziak, Roberto Pellungrini, Salvatore Rinzivillo,
- Abstract要約: One-Shot Clustered Federated Learning (OCFL)は、クラスタリングに最も適した瞬間を自動的に検出するクラスタリングに依存しないアルゴリズムである。
5つのベンチマークデータセット上で40以上のタスクに対して、様々なワンショットクラスタリングアルゴリズムをテストすることで、我々の方法論を実証的に評価する。
- 参考スコア(独自算出の注目度): 0.7990816079551591
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) is a widespread and well-adopted paradigm of decentralised learning that allows training one model from multiple sources without the need to transfer data between participating clients directly. Since its inception in 2015, it has been divided into numerous subfields that deal with application-specific issues, such as data heterogeneity or resource allocation. One such sub-field, Clustered Federated Learning (CFL), deals with the problem of clustering the population of clients into separate cohorts to deliver personalised models. Although a few remarkable works have been published in this domain, the problem remains largely unexplored, as its basic assumptions and settings differ slightly from those of standard FL. In this work, we present One-Shot Clustered Federated Learning (OCFL), a clustering-agnostic algorithm that can automatically detect the earliest suitable moment for clustering. Our algorithm is based on computing the cosine distance between the gradients of the clients and a temperature measure that detects when the federated model starts to converge. We empirically evaluate our methodology by testing various one-shot clustering algorithms for over forty different tasks on five benchmark datasets. Our experiments showcase the good performance of our approach when used to perform CFL in an automated manner without the need to adjust hyperparameters. We also revisit the practical feasibility of CFL algorithms based on the gradients of the clients, providing firm evidence of the high efficiency of density-based clustering methods when used to differentiate between the loss surfaces of neural networks trained on different distributions. Moreover, by inspecting the feasibility of local explanations generated with the help of GradCAM, we can provide more insights into the relationship between personalisation and the explainability of local predictions.
- Abstract(参考訳): フェデレートラーニング(Federated Learning, FL)は、複数のソースから1つのモデルをトレーニングし、参加するクライアント間でデータを転送する必要がない、分散学習のパラダイムである。
2015年の創業以来、データ不均一性やリソース割り当てといったアプリケーション固有の問題に対処する多くのサブフィールドに分割されてきた。
このようなサブフィールドであるClustered Federated Learning (CFL)は、クライアントの集団を個別のコホートにクラスタ化してパーソナライズされたモデルを提供するという問題を扱う。
この領域でいくつかの顕著な研究が出版されているが、基本的な仮定や設定が標準FLと若干異なるため、問題は未解明のままである。
本研究では,クラスタリングに適した最初期のモーメントを自動的に検出するクラスタリング非依存アルゴリズムであるOne-Shot Clustered Federated Learning (OCFL)を提案する。
本アルゴリズムは,クライアント間のコサイン距離の計算と,フェデレートモデルが収束し始める温度測定値に基づく。
5つのベンチマークデータセット上で40以上のタスクに対して、様々なワンショットクラスタリングアルゴリズムをテストすることで、我々の方法論を実証的に評価する。
実験では,過パラメータの調整を必要とせず,自動でCFLを実行する場合のアプローチの優れた性能を示す。
また、クライアントの勾配に基づいてCFLアルゴリズムの実用的実現可能性を再考し、異なる分布でトレーニングされたニューラルネットワークの損失面を区別するために、密度に基づくクラスタリング手法の高効率性を確証する。
また,GradCAMの助けを借りて作成した局所的説明の実現可能性を調べることで,個人化と局所的予測の説明可能性との関係について,より深い知見を得ることができる。
関連論文リスト
- One-Shot Clustering for Federated Learning [2.8060709233558647]
One-Shot Clustered Federated Learning (OCFL)は、クラスタリングに最も適した瞬間を自動的に検出するクラスタリングに依存しないアルゴリズムである。
本アルゴリズムは,クライアントの勾配のコサイン類似性の計算と,フェデレートモデルが収束し始める温度測定値に基づく。
論文 参考訳(メタデータ) (2025-03-06T09:12:43Z) - Interaction-Aware Gaussian Weighting for Clustered Federated Learning [58.92159838586751]
フェデレートラーニング(FL)は、プライバシを維持しながらモデルをトレーニングするための分散パラダイムとして登場した。
本稿では,新たなクラスタリングFL法であるFedGWC(Federated Gaussian Weighting Clustering)を提案する。
ベンチマークデータセットを用いた実験により,FedGWCはクラスタの品質と分類精度において,既存のFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-05T16:33:36Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - FedClust: Tackling Data Heterogeneity in Federated Learning through Weight-Driven Client Clustering [26.478852701376294]
フェデレートラーニング(Federated Learning, FL)は、分散機械学習のパラダイムである。
FLの主な課題の1つは、クライアントデバイスにまたがる不均一なデータ分散の存在である。
我々は,局所モデル重みとクライアントのデータ分布の相関を利用したCFLの新しい手法であるFedClustを提案する。
論文 参考訳(メタデータ) (2024-07-09T02:47:16Z) - Federated cINN Clustering for Accurate Clustered Federated Learning [33.72494731516968]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習に対する革新的なアプローチである。
本稿では,クライアントを複数のグループに頑健にクラスタリングするFederated cINN Clustering Algorithm (FCCA)を提案する。
論文 参考訳(メタデータ) (2023-09-04T10:47:52Z) - Tackling Computational Heterogeneity in FL: A Few Theoretical Insights [68.8204255655161]
我々は、計算異種データの形式化と処理を可能にする新しい集約フレームワークを導入し、分析する。
提案するアグリゲーションアルゴリズムは理論的および実験的予測から広範囲に解析される。
論文 参考訳(メタデータ) (2023-07-12T16:28:21Z) - Provably Personalized and Robust Federated Learning [47.50663360022456]
類似したクライアントのクラスタを識別し、パーソナライズされたモデルパークラスタを訓練する簡単なアルゴリズムを提案する。
アルゴリズムの収束率は、クライアントの真の基盤となるクラスタリングを知っていれば得られるものと一致します。
論文 参考訳(メタデータ) (2023-06-14T09:37:39Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - A Personalized Federated Learning Algorithm: an Application in Anomaly
Detection [0.6700873164609007]
フェデレートラーニング(FL)は、データプライバシと送信問題を克服する有望な方法として最近登場した。
FLでは、異なるデバイスやセンサーから収集されたデータセットを使用して、各学習を集中型モデル(サーバ)と共有するローカルモデル(クライアント)をトレーニングする。
本稿では,PC-FedAvg(Personalized FedAvg, PC-FedAvg)を提案する。
論文 参考訳(メタデータ) (2021-11-04T04:57:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。