論文の概要: Clust-PSI-PFL: A Population Stability Index Approach for Clustered Non-IID Personalized Federated Learning
- arxiv url: http://arxiv.org/abs/2512.20363v1
- Date: Tue, 23 Dec 2025 13:46:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.892971
- Title: Clust-PSI-PFL: A Population Stability Index Approach for Clustered Non-IID Personalized Federated Learning
- Title(参考訳): Clust-PSI-PFL: クラスタ化された非IID個人化フェデレーション学習のための集団安定度指標アプローチ
- Authors: Daniel M. Jimenez-Gutierrez, Mehrdad Hassanzadeh, Aris Anagnostopoulos, Ioannis Chatzigiannakis, Andrea Vitaletti,
- Abstract要約: Federated Learning (FL)は、クライアントデバイスにデータを保持することにより、プライバシ保護、分散機械学習(ML)モデルのトレーニングをサポートする。
クラスタリングに基づくパーソナライズされたFLフレームワークであるClust-PSI-PFLを提案する。
Clust-PSI-PFLは最先端のベースラインよりも最大18%高い精度を実現し、厳密な非IIDデータの下で37%の相対的な改善によってクライアントの公正性を著しく向上する。
- 参考スコア(独自算出の注目度): 1.8257614612363051
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) supports privacy-preserving, decentralized machine learning (ML) model training by keeping data on client devices. However, non-independent and identically distributed (non-IID) data across clients biases updates and degrades performance. To alleviate these issues, we propose Clust-PSI-PFL, a clustering-based personalized FL framework that uses the Population Stability Index (PSI) to quantify the level of non-IID data. We compute a weighted PSI metric, $WPSI^L$, which we show to be more informative than common non-IID metrics (Hellinger, Jensen-Shannon, and Earth Mover's distance). Using PSI features, we form distributionally homogeneous groups of clients via K-means++; the number of optimal clusters is chosen by a systematic silhouette-based procedure, typically yielding few clusters with modest overhead. Across six datasets (tabular, image, and text modalities), two partition protocols (Dirichlet with parameter $α$ and Similarity with parameter S), and multiple client sizes, Clust-PSI-PFL delivers up to 18% higher global accuracy than state-of-the-art baselines and markedly improves client fairness by a relative improvement of 37% under severe non-IID data. These results establish PSI-guided clustering as a principled, lightweight mechanism for robust PFL under label skew.
- Abstract(参考訳): Federated Learning (FL)は、クライアントデバイスにデータを保持することにより、プライバシ保護、分散機械学習(ML)モデルのトレーニングをサポートする。
しかし、クライアント間で非独立で同一の(非IID)データが更新に偏り、パフォーマンスが低下する。
Clust-PSI-PFLはクラスタリングに基づくパーソナライズされたFLフレームワークで、PSI(Population Stability Index)を用いて非IIDデータのレベルを定量化する。
我々は、重み付きPSI測度である$WPSI^L$を計算し、一般的な非IID測度(Hellinger, Jensen-Shannon, Earth Mover's distance)よりも有益であることを示した。
K-means++ を用いてクライアントの分布的に均質なグループを形成し、最適なクラスタの数は、シロエットに基づく体系的な手順によって選択される。
6つのデータセット(タブラリ、イメージ、テキストのモダリティ)、2つのパーティションプロトコル(パラメータ$α$とパラメータSとの類似性を持つDirichlet)と複数のクライアントサイズ、Clust-PSI-PFLは最先端のベースラインよりも18%高いグローバル精度を実現し、厳密な非IIDデータの下でクライアントの公正性を37%改善することで、クライアントの公正性を著しく向上する。
これらの結果から,PSI誘導クラスタリングはラベルスキュー下でのロバストPFLの原理的,軽量な機構として確立された。
関連論文リスト
- CO-PFL: Contribution-Oriented Personalized Federated Learning for Heterogeneous Networks [51.43780477302533]
コントリビューション指向型PFL(CO-PFL)は,グローバルアグリゲーションに対する各クライアントのコントリビューションを動的に推定するアルゴリズムである。
CO-PFLは、パーソナライズ精度、堅牢性、スケーラビリティ、収束安定性において、最先端の手法を一貫して超越している。
論文 参考訳(メタデータ) (2025-10-23T05:10:06Z) - DPMM-CFL: Clustered Federated Learning via Dirichlet Process Mixture Model Nonparametric Clustering [8.645893961456801]
クラスタ化されたフェデレートラーニングは、非IIDクライアントの不均一性の下でのパフォーマンスを改善する。
ほとんどのCFL法は、プリオリを固定するためにクラスターKの数を必要とする。
本稿では,クラスタパラメータの分布に先立ってディリクレプロセス(DP)を配置するCFLアルゴリズムDPMM-CFLを提案する。
論文 参考訳(メタデータ) (2025-10-08T15:27:08Z) - PSI-PFL: Population Stability Index for Client Selection in non-IID Personalized Federated Learning [1.8777876049719082]
Federated Learning (FL)は、クライアント間でデータをローカライズすることで、データのプライバシを保持しながら、分散機械学習(ML)モデルのトレーニングを可能にする。
パーソナライズド・フェデレーション・ラーニング(PFL)のための新しいクライアント選択フレームワークであるPSI-PFLを提案する。
提案手法はPSIに基づいてより均質なクライアントを選択し,FL性能の最も有害な要因であるラベルスキューの影響を低減させる。
論文 参考訳(メタデータ) (2025-05-31T07:41:42Z) - FedAPA: Server-side Gradient-Based Adaptive Personalized Aggregation for Federated Learning on Heterogeneous Data [5.906966694759679]
FedAPAは、パーソナライズされたモデルを生成するためのサーバサイドの勾配に基づく適応アダプティブアグリゲーション戦略を備えた、新しいPFL手法である。
FedAPAは理論収束を保証し、3つのデータセットにわたる10のPFL競合と比較して精度と計算効率が優れている。
論文 参考訳(メタデータ) (2025-02-11T11:00:58Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - TPFL: Tsetlin-Personalized Federated Learning with Confidence-Based Clustering [0.0]
本稿では,Tsetlin-Personalized Federated Learningと呼ばれる新しい手法を提案する。
このように、モデルは特定のクラスに対する信頼性に基づいてクラスタにグループ化される。
クライアントは信頼しているものだけを共有し、結果として誤った重み付けが排除される。
その結果、TPFLはMNISTで98.94%、FashionMNISTで98.52%、FEMNISTデータセットで91.16%の精度でベースライン法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-09-16T15:27:35Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Optimizing Server-side Aggregation For Robust Federated Learning via
Subspace Training [80.03567604524268]
クライアント間の非IIDデータ分散と中毒攻撃は、現実世界のフェデレーション学習システムにおける2つの大きな課題である。
サーバ側集約プロセスを最適化する汎用的なアプローチであるSmartFLを提案する。
本稿では,SmartFLの収束と一般化能力に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-11-10T13:20:56Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。