論文の概要: Differential Privacy Personalized Federated Learning Based on Dynamically Sparsified Client Updates
- arxiv url: http://arxiv.org/abs/2503.09192v1
- Date: Wed, 12 Mar 2025 09:34:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:36:16.127555
- Title: Differential Privacy Personalized Federated Learning Based on Dynamically Sparsified Client Updates
- Title(参考訳): 動的スポーザライズされたクライアント更新に基づく個人化フェデレーション学習の微分プライバシー
- Authors: Chuanyin Wang, Yifei Zhang, Neng Gao, Qiang Luo,
- Abstract要約: 本稿では,動的に分散化されたクライアント更新を利用する個人個人化学習手法を提案する。
EMNIST, CIFAR-10, CIFAR-100の実験結果から, 提案手法が優れた性能を発揮することが示された。
- 参考スコア(独自算出の注目度): 12.373620724244475
- License:
- Abstract: Personalized federated learning is extensively utilized in scenarios characterized by data heterogeneity, facilitating more efficient and automated local training on data-owning terminals. This includes the automated selection of high-performance model parameters for upload, thereby enhancing the overall training process. However, it entails significant risks of privacy leakage. Existing studies have attempted to mitigate these risks by utilizing differential privacy. Nevertheless, these studies present two major limitations: (1) The integration of differential privacy into personalized federated learning lacks sufficient personalization, leading to the introduction of excessive noise into the model. (2) It fails to adequately control the spatial scope of model update information, resulting in a suboptimal balance between data privacy and model effectiveness in differential privacy federated learning. In this paper, we propose a differentially private personalized federated learning approach that employs dynamically sparsified client updates through reparameterization and adaptive norm(DP-pFedDSU). Reparameterization training effectively selects personalized client update information, thereby reducing the quantity of updates. This approach minimizes the introduction of noise to the greatest extent possible. Additionally, dynamic adaptive norm refers to controlling the norm space of model updates during the training process, mitigating the negative impact of clipping on the update information. These strategies substantially enhance the effective integration of differential privacy and personalized federated learning. Experimental results on EMNIST, CIFAR-10, and CIFAR-100 demonstrate that our proposed scheme achieves superior performance and is well-suited for more complex personalized federated learning scenarios.
- Abstract(参考訳): パーソナライズされたフェデレーション学習は、データの不均一性を特徴とするシナリオで広く利用されており、データ所有端末におけるより効率的で自動化されたローカルトレーニングを促進する。
これにはアップロードのための高性能モデルパラメータの自動選択が含まれており、それによって全体的なトレーニングプロセスが強化される。
しかし、プライバシー漏洩の重大なリスクが伴う。
既存の研究では、差分プライバシーを利用してこれらのリスクを緩和しようと試みている。
1) 個人化学習への差分プライバシーの統合には十分なパーソナライゼーションが欠如しており、モデルに過度なノイズがもたらされる。
2) モデル更新情報の空間的範囲を適切に制御できないため, 差分プライバシーフェデレーション学習におけるデータプライバシとモデルの有効性の相違が生じる。
本稿では,リパラメータ化と適応ノルム(DP-pFedDSU)により動的に分散化されたクライアント更新を利用する,個人用個別学習手法を提案する。
再パラメータ化トレーニングは、パーソナライズされたクライアント更新情報を効果的に選択することで、更新の量を削減する。
このアプローチは可能な限りノイズの導入を最小限にする。
さらに、動的適応ノルムは、トレーニングプロセス中のモデル更新のノルム空間を制御し、更新情報に対するクリッピングの負の影響を緩和する。
これらの戦略は、差分プライバシーとパーソナライズド・フェデレーション・ラーニングの効果的な統合を大幅に強化する。
EMNIST, CIFAR-10, CIFAR-100の実験結果から,提案手法は優れた性能を示し, より複雑な個別化学習シナリオに適していることが示された。
関連論文リスト
- Advancing Personalized Federated Learning: Integrative Approaches with AI for Enhanced Privacy and Customization [0.0]
本稿では,最先端AI技術を用いてPFLを強化する新しい手法を提案する。
本稿では、個々のクライアントモデルの性能を高め、堅牢なプライバシ保護機構を保証するモデルを提案する。
この研究は、真のパーソナライズされたプライバシを重視したAIシステムの新たな時代への道を開くものだ。
論文 参考訳(メタデータ) (2025-01-30T07:03:29Z) - Adaptive Client Selection in Federated Learning: A Network Anomaly Detection Use Case [0.30723404270319693]
本稿では,差分プライバシーとフォールトトレランスを組み込んだFL(Federated Learning)のクライアント選択フレームワークを提案する。
その結果、FedL2Pアプローチと比較して、精度が7%向上し、トレーニング時間が25%短縮された。
論文 参考訳(メタデータ) (2025-01-25T02:50:46Z) - Optimal Strategies for Federated Learning Maintaining Client Privacy [8.518748080337838]
本稿では,フェデレートラーニングシステムのモデル性能とコミュニケーションのトレードオフについて検討する。
グローバルなトレーニングラウンド当たりの1つのローカルエポックのトレーニングは、同じプライバシ予算を維持しながら、最適なパフォーマンスを提供することを示す。
論文 参考訳(メタデータ) (2025-01-24T12:34:38Z) - Efficient Federated Unlearning with Adaptive Differential Privacy Preservation [15.8083997286637]
フェデレーション・アンラーニング(FU)は、フェデレーション・ラーニング(FL)における、特定のクライアントのデータがグローバルモデルに与える影響を消し去るための有望なソリューションを提供する。
現在の最先端のFUメソッドは、保存された履歴更新を活用することで、従来のFLフレームワークを拡張している。
FUにおける効率性とプライバシ保護の両立を図ったFedADPを提案する。
論文 参考訳(メタデータ) (2024-11-17T11:45:15Z) - Efficient and Robust Regularized Federated Recommendation [52.24782464815489]
推薦システム(RSRS)は、ユーザの好みとプライバシの両方に対処する。
通信効率を向上させるために,非一様勾配勾配勾配を取り入れた新しい手法を提案する。
RFRecFの強靭性は、多様なベースラインに比べて優れている。
論文 参考訳(メタデータ) (2024-11-03T12:10:20Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。