論文の概要: PQFed: A Privacy-Preserving Quality-Controlled Federated Learning Framework
- arxiv url: http://arxiv.org/abs/2509.21704v1
- Date: Thu, 25 Sep 2025 23:56:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.080154
- Title: PQFed: A Privacy-Preserving Quality-Controlled Federated Learning Framework
- Title(参考訳): PQFed: プライバシ保護による品質管理型フェデレーション学習フレームワーク
- Authors: Weiqi Yue, Wenbiao Li, Yuzhou Jiang, Anisa Halimi, Roger French, Erman Ayday,
- Abstract要約: フェデレートラーニングは、生データを共有せずに協調的なモデルトレーニングを可能にする。
PQFedは、プライバシを保存するパーソナライズされたフェデレーション学習フレームワークである。
PQFedは、限られた数の参加者であっても、ターゲットクライアントのモデルパフォーマンスを継続的に改善する。
- 参考スコア(独自算出の注目度): 3.279539373700685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning enables collaborative model training without sharing raw data, but data heterogeneity consistently challenges the performance of the global model. Traditional optimization methods often rely on collaborative global model training involving all clients, followed by local adaptation to improve individual performance. In this work, we focus on early-stage quality control and propose PQFed, a novel privacy-preserving personalized federated learning framework that designs customized training strategies for each client prior to the federated training process. PQFed extracts representative features from each client's raw data and applies clustering techniques to estimate inter-client dataset similarity. Based on these similarity estimates, the framework implements a client selection strategy that enables each client to collaborate with others who have compatible data distributions. We evaluate PQFed on two benchmark datasets, CIFAR-10 and MNIST, integrated with three existing federated learning algorithms. Experimental results show that PQFed consistently improves the target client's model performance, even with a limited number of participants. We further benchmark PQFed against a baseline cluster-based algorithm, IFCA, and observe that PQFed also achieves better performance in low-participation scenarios. These findings highlight PQFed's scalability and effectiveness in personalized federated learning settings.
- Abstract(参考訳): フェデレーション学習は、生データを共有せずに協調的なモデルトレーニングを可能にするが、データの均一性は、グローバルモデルの性能に一貫して挑戦する。
従来の最適化手法は、全てのクライアントを含む協調的なグローバルモデルトレーニングに頼り、続いて個々のパフォーマンスを改善するために局所的な適応を行うことが多い。
本研究は、早期品質管理に焦点を当て、PQFedを提案する。PQFedは、フェデレーショントレーニングプロセスに先立って、クライアントごとにカスタマイズされたトレーニング戦略を設計する、プライバシーを保護したパーソナライズされた個人化された学習フレームワークである。
PQFedは各クライアントの生データから代表的特徴を抽出し、クラスタリング技術を用いてクライアント間データセットの類似性を推定する。
これらの類似性見積に基づいて、このフレームワークはクライアント選択戦略を実装し、各クライアントが互換性のあるデータ分散を持つ他のクライアントと協力できるようにする。
CIFAR-10とMNISTの2つのベンチマークデータセット上でPQFedを評価し,既存の3つのフェデレーション学習アルゴリズムを統合した。
実験の結果、PQFedは限られた人数であっても、ターゲットクライアントのモデル性能を継続的に改善することがわかった。
我々はさらに、PQFedをベースラインクラスタベースのアルゴリズムであるIFCAに対してベンチマークし、低参加シナリオにおいてもPQFedがより良いパフォーマンスを達成することを観察する。
これらの結果は、パーソナライズされたフェデレーション学習環境におけるPQFedのスケーラビリティと有効性を強調している。
関連論文リスト
- Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - FedReMa: Improving Personalized Federated Learning via Leveraging the Most Relevant Clients [13.98392319567057]
Federated Learning (FL) は分散機械学習のパラダイムであり、分散計算と周期モデル合成によってグローバルに堅牢なモデルを実現する。
広く採用されているにもかかわらず、既存のFLとPFLの作業は、クラス不均衡の問題に包括的に対処していない。
本稿では,適応型クライアント間コラーニング手法を用いて,クラス不均衡に対処できる効率的なPFLアルゴリズムであるFedReMaを提案する。
論文 参考訳(メタデータ) (2024-11-04T05:44:28Z) - How to Collaborate: Towards Maximizing the Generalization Performance in Cross-Silo Federated Learning [11.442808208742758]
フェデレートクラスタリング(FL)は、プライバシを保存する分散学習フレームワークとして、鮮明な注目を集めている。
本研究では、クライアントがFLデータの後、モデルオーナーとなるクロスサイロFLに焦点を当てる。
我々は、より多くのトレーニングデータを持つ他のクライアントと協調することで、クライアントのパフォーマンスを改善できると定式化します。
論文 参考訳(メタデータ) (2024-01-24T05:41:34Z) - Learn What You Need in Personalized Federated Learning [53.83081622573734]
$textitLearn2pFed$は、アルゴリズムに基づくパーソナライズされたフェデレーション学習フレームワークである。
我々は、textitLearn2pFed$が、従来のパーソナライズされたフェデレーション学習方法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-01-16T12:45:15Z) - FilFL: Client Filtering for Optimized Client Participation in Federated Learning [71.46173076298957]
フェデレートラーニングは、クライアントがローカルデータを交換することなく、協調的にモデルをトレーニングすることを可能にする。
トレーニングプロセスに参加するクライアントは、収束率、学習効率、モデル一般化に大きな影響を与えます。
本稿では,モデル一般化を改善し,クライアント参加とトレーニングを最適化する新しい手法であるクライアントフィルタリングを提案する。
論文 参考訳(メタデータ) (2023-02-13T18:55:31Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - A Coalition Formation Game Approach for Personalized Federated Learning [12.784305390534888]
我々は,新しいパーソナライズされたアルゴリズム,pFedSVを提案し,各クライアントの最適なコラボレータ連携を識別し,SVに基づいてパーソナライズされたモデルアグリゲーションを実行する。
その結果、pFedSVは最先端のベンチマークと比較すると、各クライアントのパーソナライズ精度が優れていることがわかった。
論文 参考訳(メタデータ) (2022-02-05T07:16:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。