論文の概要: PSI-PFL: Population Stability Index for Client Selection in non-IID Personalized Federated Learning
- arxiv url: http://arxiv.org/abs/2506.00440v1
- Date: Sat, 31 May 2025 07:41:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.074645
- Title: PSI-PFL: Population Stability Index for Client Selection in non-IID Personalized Federated Learning
- Title(参考訳): PSI-PFL:非IID個人化フェデレーション学習におけるクライアント選択のための集団安定度指標
- Authors: Daniel-M. Jimenez-Gutierrez, David Solans, Mohammed Elbamby, Nicolas Kourtellis,
- Abstract要約: Federated Learning (FL)は、クライアント間でデータをローカライズすることで、データのプライバシを保持しながら、分散機械学習(ML)モデルのトレーニングを可能にする。
パーソナライズド・フェデレーション・ラーニング(PFL)のための新しいクライアント選択フレームワークであるPSI-PFLを提案する。
提案手法はPSIに基づいてより均質なクライアントを選択し,FL性能の最も有害な要因であるラベルスキューの影響を低減させる。
- 参考スコア(独自算出の注目度): 1.8777876049719082
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) enables decentralized machine learning (ML) model training while preserving data privacy by keeping data localized across clients. However, non-independent and identically distributed (non-IID) data across clients poses a significant challenge, leading to skewed model updates and performance degradation. Addressing this, we propose PSI-PFL, a novel client selection framework for Personalized Federated Learning (PFL) that leverages the Population Stability Index (PSI) to quantify and mitigate data heterogeneity (so-called non-IIDness). Our approach selects more homogeneous clients based on PSI, reducing the impact of label skew, one of the most detrimental factors in FL performance. Experimental results over multiple data modalities (tabular, image, text) demonstrate that PSI-PFL significantly improves global model accuracy, outperforming state-of-the-art baselines by up to 10\% under non-IID scenarios while ensuring fairer local performance. PSI-PFL enhances FL performance and offers practical benefits in applications where data privacy and heterogeneity are critical.
- Abstract(参考訳): Federated Learning (FL)は、クライアント間でデータをローカライズすることで、データのプライバシを保持しながら、分散機械学習(ML)モデルのトレーニングを可能にする。
しかし、非独立で同一の(非IID)データをクライアントに分散させることは大きな課題となり、スキュードモデルの更新とパフォーマンスの低下につながります。
PSI-PFLはPFL(Personalized Federated Learning)のための新しいクライアント選択フレームワークで、PSI(Population stability Index)を利用してデータの不均一性を定量化し緩和する(いわゆる非IIDness)。
提案手法はPSIに基づいてより均質なクライアントを選択し,FL性能の最も有害な要因であるラベルスキューの影響を低減させる。
複数のデータモダリティ(タブラリ、画像、テキスト)に対する実験結果から、PSI-PFLはグローバルモデル精度を著しく向上し、非IIDシナリオでは最先端のベースラインを最大10倍向上させ、より公平なローカルパフォーマンスを確保した。
PSI-PFLはFLのパフォーマンスを高め、データのプライバシと不均一性が重要となるアプリケーションに実用的な利点を提供する。
関連論文リスト
- FedAPA: Server-side Gradient-Based Adaptive Personalized Aggregation for Federated Learning on Heterogeneous Data [5.906966694759679]
FedAPAは、パーソナライズされたモデルを生成するためのサーバサイドの勾配に基づく適応アダプティブアグリゲーション戦略を備えた、新しいPFL手法である。
FedAPAは理論収束を保証し、3つのデータセットにわたる10のPFL競合と比較して精度と計算効率が優れている。
論文 参考訳(メタデータ) (2025-02-11T11:00:58Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - FedMAP: Unlocking Potential in Personalized Federated Learning through Bi-Level MAP Optimization [11.040916982022978]
フェデレートラーニング(FL)は、分散データに基づく機械学習モデルの協調トレーニングを可能にする。
クライアント間でのデータはしばしば、クラス不均衡、特徴分散スキュー、サンプルサイズ不均衡、その他の現象によって大きく異なる。
本稿では,バイレベル最適化を用いた新しいベイズPFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T11:28:06Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Strategic Client Selection to Address Non-IIDness in HAPS-enabled FL Networks [21.446301665317378]
非IIDデータの悪影響を軽減するために,属性に基づく新たなクライアント選択手法を提案する。
シミュレーション結果は、FLモデルの精度と収束率を高めるために提案したクライアント選択戦略の有効性を裏付けるものである。
論文 参考訳(メタデータ) (2024-01-10T18:22:00Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - SemiSFL: Split Federated Learning on Unlabeled and Non-IID Data [34.49090830845118]
フェデレートラーニング(FL)は、複数のクライアントがネットワークエッジでプライベートデータ上で機械学習モデルを協調的にトレーニングできるようにするためのものだ。
クラスタリング正規化を取り入れて,ラベルなしおよび非IIDクライアントデータでSFLを実行する,Semi-supervised SFLシステムを提案する。
本システムは,訓練時間の3.8倍の高速化を実現し,目標精度を達成しつつ通信コストを約70.3%削減し,非IIDシナリオで最大5.8%の精度向上を実現する。
論文 参考訳(メタデータ) (2023-07-29T02:35:37Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。