論文の概要: Federated Learning with Enhanced Privacy via Model Splitting and Random Client Participation
- arxiv url: http://arxiv.org/abs/2509.25906v1
- Date: Tue, 30 Sep 2025 07:51:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:45:00.059322
- Title: Federated Learning with Enhanced Privacy via Model Splitting and Random Client Participation
- Title(参考訳): モデル分割とランダムクライアント参加によるフェデレーション学習
- Authors: Yiwei Li, Shuai Wang, Zhuojun Tian, Xiuhua Wang, Shijian Su,
- Abstract要約: フェデレートラーニング(FL)では、クライアントデータを保護するために差分プライバシ(DP)を採用することが多いが、プライバシ保証に必要なノイズの追加は、モデルの精度を著しく低下させる可能性がある。
モデル分割型プライバシ増幅型フェデレーションラーニング(MS-PAFL)を提案する。
このフレームワークでは、各クライアントのモデルをプライベートサブモデルに分割し、ローカルに保持し、グローバルアグリゲーションのために共有されるパブリックサブモデルに分割する。
- 参考スコア(独自算出の注目度): 7.780051713043537
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) often adopts differential privacy (DP) to protect client data, but the added noise required for privacy guarantees can substantially degrade model accuracy. To resolve this challenge, we propose model-splitting privacy-amplified federated learning (MS-PAFL), a novel framework that combines structural model splitting with statistical privacy amplification. In this framework, each client's model is partitioned into a private submodel, retained locally, and a public submodel, shared for global aggregation. The calibrated Gaussian noise is injected only into the public submodel, thereby confining its adverse impact while preserving the utility of the local model. We further present a rigorous theoretical analysis that characterizes the joint privacy amplification achieved through random client participation and local data subsampling under this architecture. The analysis provides tight bounds on both single-round and total privacy loss, demonstrating that MS-PAFL significantly reduces the noise necessary to satisfy a target privacy protection level. Extensive experiments validate our theoretical findings, showing that MS-PAFL consistently attains a superior privacy-utility trade-off and enables the training of highly accurate models under strong privacy guarantees.
- Abstract(参考訳): フェデレートラーニング(FL)では、クライアントデータを保護するために差分プライバシ(DP)を採用することが多いが、プライバシ保証に必要なノイズの追加は、モデルの精度を著しく低下させる可能性がある。
この課題を解決するために,構造化モデル分割と統計的プライバシー増幅を組み合わせた新しいフレームワークであるMS-PAFLを提案する。
このフレームワークでは、各クライアントのモデルをプライベートサブモデルに分割し、ローカルに保持し、グローバルアグリゲーションのために共有されるパブリックサブモデルに分割する。
キャリブレーションされたガウスノイズは公共のサブモデルにのみ注入され、局所モデルの実用性を保ちながらその悪影響を補う。
さらに、このアーキテクチャの下で、ランダムなクライアント参加とローカルデータサブサンプリングによって達成された共同プライバシ増幅を特徴付ける厳密な理論的解析について述べる。
この分析は、単一ラウンドと全プライバシ損失の両方に厳しい制約を与え、MS-PAFLがターゲットのプライバシ保護レベルを満たすために必要なノイズを著しく低減することを示した。
広範にわたる実験により,MS-PAFLが常に優れたプライバシー利用トレードオフを達成し,強力なプライバシー保証の下で高度に正確なモデルのトレーニングを可能にすることが確認された。
関連論文リスト
- On the MIA Vulnerability Gap Between Private GANs and Diffusion Models [51.53790101362898]
GAN(Generative Adversarial Networks)と拡散モデルが高品質な画像合成のための主要なアプローチとして登場している。
差分自己生成モデルが直面するプライバシーリスクの統一的および実証的分析について述べる。
論文 参考訳(メタデータ) (2025-09-03T14:18:22Z) - Enhancing Model Privacy in Federated Learning with Random Masking and Quantization [46.915409150222494]
大規模言語モデル(LLM)の台頭は、分散システムに新たな課題をもたらした。
これは、センシティブなデータとプロプライエタリなモデルの両方を保護可能な、フェデレーション付き学習アプローチの必要性を強調している。
モデルパラメータのサブネットワークを隠蔽するためにランダムマスキングを利用するフェデレート学習手法であるFedQSNを提案する。
論文 参考訳(メタデータ) (2025-08-26T10:34:13Z) - Optimal Client Sampling in Federated Learning with Client-Level Heterogeneous Differential Privacy [8.683908900328237]
プライバシー予算に基づいてクライアントをグループに分割し,各グループ内のクライアントレベルのDPを実現し,プライバシー予算の無駄を削減するGDPFedを提案する。
また、GDPFed$+$を導入することで、不要なノイズを排除し、グループごとのクライアントサンプリング比率を最適化します。
論文 参考訳(メタデータ) (2025-05-19T18:55:34Z) - FedEM: A Privacy-Preserving Framework for Concurrent Utility Preservation in Federated Learning [17.853502904387376]
Federated Learning (FL)は、分散クライアント間で、ローカルデータを共有せずにモデルの協調的なトレーニングを可能にし、分散システムにおけるプライバシの問題に対処する。
適応雑音注入による制御摂動を組み込んだ新しいアルゴリズムであるフェデレートエラー最小化(FedEM)を提案する。
ベンチマークデータセットの実験結果から、FedEMはプライバシのリスクを著しく低減し、モデルの正確性を保ち、プライバシ保護とユーティリティ保護の堅牢なバランスを達成している。
論文 参考訳(メタデータ) (2025-03-08T02:48:00Z) - Communication-Efficient and Privacy-Adaptable Mechanism for Federated Learning [54.20871516148981]
通信効率・プライバシー適応メカニズム(CEPAM)について紹介する。
CEPAMは通信効率とプライバシー保護を同時に達成する。
我々は、CEPAMのプライバシー保証を理論的に分析し、CEPAMのユーザプライバシと正確性の間のトレードオフを調査する。
論文 参考訳(メタデータ) (2025-01-21T11:16:05Z) - Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - Stronger Privacy Amplification by Shuffling for R\'enyi and Approximate
Differential Privacy [43.33288245778629]
このモデルにおける重要な結果は、ランダムにランダム化されたデータをランダムにシャッフルすると、差分プライバシー保証が増幅されることである。
このような増幅は、匿名でデータが提供されるシステムにおいて、はるかに強力なプライバシー保証を意味する。
本研究では,理論的にも数値的にも,アートプライバシの増幅状態を改善する。
論文 参考訳(メタデータ) (2022-08-09T08:13:48Z) - Renyi Differential Privacy of the Subsampled Shuffle Model in
Distributed Learning [7.197592390105457]
クライアントは、プライバシを必要とするサーバとのインタラクションを通じて、学習モデルを反復的に構築する分散学習フレームワークで、プライバシを研究する。
最適化とフェデレートラーニング(FL)パラダイムによって動機付けられ、各ラウンドで少数のデータサンプルがランダムにサブサンプリングされた場合に焦点を当てる。
より強力なローカルプライバシ保証を得るために,各クライアントがローカルディファレンシャル・プライベート(LDP)機構を用いて応答をランダム化するシャッフルプライバシ・モデルを用いてこれを検証した。
論文 参考訳(メタデータ) (2021-07-19T11:43:24Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。