論文の概要: RCC-PFL: Robust Client Clustering under Noisy Labels in Personalized Federated Learning
- arxiv url: http://arxiv.org/abs/2503.19886v1
- Date: Tue, 25 Mar 2025 17:50:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:53:22.914132
- Title: RCC-PFL: Robust Client Clustering under Noisy Labels in Personalized Federated Learning
- Title(参考訳): RCC-PFL:個人化フェデレーション学習におけるノイズラベル下でのロバストクライアントクラスタリング
- Authors: Abdulmoneam Ali, Ahmed Arafa,
- Abstract要約: 本稿では,RCC-PFLというラベルに依存しない類似性に基づくクラスタリングアルゴリズムを提案する。
平均精度と分散低減率で複数のベースラインを上回っていることを示す。
- 参考スコア(独自算出の注目度): 8.37314799155978
- License:
- Abstract: We address the problem of cluster identity estimation in a personalized federated learning (PFL) setting in which users aim to learn different personal models. The backbone of effective learning in such a setting is to cluster users into groups whose objectives are similar. A typical approach in the literature is to achieve this by training users' data on different proposed personal models and assign them to groups based on which model achieves the lowest value of the users' loss functions. This process is to be done iteratively until group identities converge. A key challenge in such a setting arises when users have noisy labeled data, which may produce misleading values of their loss functions, and hence lead to ineffective clustering. To overcome this challenge, we propose a label-agnostic data similarity-based clustering algorithm, coined RCC-PFL, with three main advantages: the cluster identity estimation procedure is independent from the training labels; it is a one-shot clustering algorithm performed prior to the training; and it requires fewer communication rounds and less computation compared to iterative-based clustering methods. We validate our proposed algorithm using various models and datasets and show that it outperforms multiple baselines in terms of average accuracy and variance reduction.
- Abstract(参考訳): 個人モデルの違いを学習するパーソナライズド・フェデレーション・ラーニング(PFL)におけるクラスタ・アイデンティティー推定の問題に対処する。
このような環境で効果的な学習のバックボーンは、ユーザを目的が似ているグループにまとめることです。
文献における典型的なアプローチは、異なる提案された個人モデルに関するユーザのデータをトレーニングし、どのモデルがユーザーの損失関数の最低値を達成するかに基づいてグループに割り当てることである。
この過程は群アイデンティティが収束するまで反復的に行われる。
このような設定における重要な課題は、ユーザがノイズの多いラベル付きデータを持つときに起こり、損失関数の誤解を招く値を生成し、結果として非効率なクラスタリングにつながる可能性がある。
この課題を克服するために,RCC-PFLと呼ばれるラベルに依存しないデータ類似性に基づくクラスタリングアルゴリズムを提案する。クラスタ識別推定手順はトレーニングラベルとは独立であり,トレーニング前に行われるワンショットクラスタリングアルゴリズムであり,反復的クラスタリング法に比べて通信ラウンドが少なく,計算量が少ない,という3つの利点がある。
提案アルゴリズムは,様々なモデルとデータセットを用いて検証し,平均精度と分散低減率において,複数のベースラインを上回っていることを示す。
関連論文リスト
- Interaction-Aware Gaussian Weighting for Clustered Federated Learning [58.92159838586751]
フェデレートラーニング(FL)は、プライバシを維持しながらモデルをトレーニングするための分散パラダイムとして登場した。
本稿では,新たなクラスタリングFL法であるFedGWC(Federated Gaussian Weighting Clustering)を提案する。
ベンチマークデータセットを用いた実験により,FedGWCはクラスタの品質と分類精度において,既存のFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-05T16:33:36Z) - Data Similarity-Based One-Shot Clustering for Multi-Task Hierarchical Federated Learning [8.37314799155978]
本研究では,データの類似性に基づいてユーザを効果的に識別し,グループ化できるワンショットクラスタリングアルゴリズムを提案する。
提案アルゴリズムはクラスタリングプロセスを強化するだけでなく,プライバシの懸念や通信のオーバーヘッド,学習モデルや損失関数の振る舞いに関する事前知識の必要性といった課題も克服する。
論文 参考訳(メタデータ) (2024-10-03T17:51:21Z) - Dirichlet Process-based Robust Clustering using the Median-of-Means Estimator [16.774378814288806]
本稿では,モデルに基づく手法とセントロイド方式の長所を統合することにより,効率的かつ自動的なクラスタリング手法を提案する。
本手法は,クラスタリングの品質に及ぼすノイズの影響を緩和するが,同時にクラスタ数を推定する。
論文 参考訳(メタデータ) (2023-11-26T19:01:15Z) - Federated Two Stage Decoupling With Adaptive Personalization Layers [5.69361786082969]
フェデレーション学習は、プライバシ制約を維持しながら分散学習を可能にする能力によって、大きな注目を集めている。
本質的には、学習の劣化と収束速度の低下を経験する。
等質なクライアントを同じ群にクラスタリングするという概念を採用することは自然であり、各群内のモデル重みのみを集約することができる。
論文 参考訳(メタデータ) (2023-08-30T07:46:32Z) - CADIS: Handling Cluster-skewed Non-IID Data in Federated Learning with
Clustered Aggregation and Knowledge DIStilled Regularization [3.3711670942444014]
フェデレーション学習は、エッジデバイスがデータを公開することなく、グローバルモデルを協調的にトレーニングすることを可能にする。
我々は、実際のデータセットで発見されたクラスタスキュード非IIDと呼ばれる新しいタイプの非IIDデータに取り組む。
本稿では,クラスタ間の平等を保証するアグリゲーション方式を提案する。
論文 参考訳(メタデータ) (2023-02-21T02:53:37Z) - A One-shot Framework for Distributed Clustered Learning in Heterogeneous
Environments [54.172993875654015]
異種環境における分散学習のためのコミュニケーション効率化手法のファミリーを提案する。
ユーザによるローカル計算に基づくワンショットアプローチと、サーバにおけるクラスタリングベースのアグリゲーションステップは、強力な学習保証を提供する。
厳密な凸問題に対しては,ユーザ毎のデータ点数がしきい値を超える限り,提案手法はサンプルサイズの観点から順序最適平均二乗誤差率を達成する。
論文 参考訳(メタデータ) (2022-09-22T09:04:10Z) - On the Convergence of Clustered Federated Learning [57.934295064030636]
統合学習システムでは、例えばモバイルデバイスや組織参加者といったクライアントは通常、個人の好みや行動パターンが異なる。
本稿では,クライアントグループと各クライアントを統一最適化フレームワークで活用する,新しい重み付きクライアントベースクラスタリングFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-13T02:39:19Z) - Meta Clustering Learning for Large-scale Unsupervised Person
Re-identification [124.54749810371986]
メタクラスタリング学習(MCL)と呼ばれる「大規模タスクのための小さなデータ」パラダイムを提案する。
MCLは、第1フェーズのトレーニングのためにコンピューティングを節約するためにクラスタリングを介して、未ラベルデータのサブセットを擬似ラベル付けするのみである。
提案手法は計算コストを大幅に削減すると同時に,従来よりも優れた性能を実現している。
論文 参考訳(メタデータ) (2021-11-19T04:10:18Z) - Robust Trimmed k-means [70.88503833248159]
本稿では,外乱点とクラスタポイントを同時に識別するRobust Trimmed k-means (RTKM)を提案する。
RTKMは他の方法と競合することを示す。
論文 参考訳(メタデータ) (2021-08-16T15:49:40Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - An Efficient Framework for Clustered Federated Learning [26.24231986590374]
本稿では,ユーザがクラスタに分散するフェデレーション学習(FL)の問題に対処する。
反復フェデレーションクラスタリングアルゴリズム(IFCA)を提案する。
ニューラルネットワークのような非分割問題では,アルゴリズムが効率的であることを示す。
論文 参考訳(メタデータ) (2020-06-07T08:48:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。