論文の概要: Deciphering the Interplay between Attack and Protection Complexity in Privacy-Preserving Federated Learning
- arxiv url: http://arxiv.org/abs/2508.11907v1
- Date: Sat, 16 Aug 2025 04:39:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.443738
- Title: Deciphering the Interplay between Attack and Protection Complexity in Privacy-Preserving Federated Learning
- Title(参考訳): プライバシ保護フェデレーション学習における攻撃と保護の複雑さの相互作用の解読
- Authors: Xiaojin Zhang, Mingcong Xu, Yiming Li, Wei Chen, Qiang Yang,
- Abstract要約: フェデレートラーニング(FL)は、データのプライバシを維持しながら協調的なモデルトレーニングのための有望なパラダイムを提供する。
Attack Complexity"は、敵がプライベートデータを再構築するのに必要となる最小限の計算およびデータリソースである。
「保護複雑性」は、プライバシーメカニズムによってもたらされるであろう歪みである。
- 参考スコア(独自算出の注目度): 17.040727625306083
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) offers a promising paradigm for collaborative model training while preserving data privacy. However, its susceptibility to gradient inversion attacks poses a significant challenge, necessitating robust privacy protection mechanisms. This paper introduces a novel theoretical framework to decipher the intricate interplay between attack and protection complexities in privacy-preserving FL. We formally define "Attack Complexity" as the minimum computational and data resources an adversary requires to reconstruct private data below a given error threshold, and "Protection Complexity" as the expected distortion introduced by privacy mechanisms. Leveraging Maximum Bayesian Privacy (MBP), we derive tight theoretical bounds for protection complexity, demonstrating its scaling with model dimensionality and privacy budget. Furthermore, we establish comprehensive bounds for attack complexity, revealing its dependence on privacy leakage, gradient distortion, model dimension, and the chosen privacy level. Our findings quantitatively illuminate the fundamental trade-offs between privacy guarantees, system utility, and the effort required for both attacking and defending. This framework provides critical insights for designing more secure and efficient federated learning systems.
- Abstract(参考訳): フェデレートラーニング(FL)は、データのプライバシを維持しながら協調的なモデルトレーニングのための有望なパラダイムを提供する。
しかし、勾配反転攻撃への感受性は、堅牢なプライバシ保護機構を必要とする重要な課題となる。
本稿では,プライバシ保護FLにおける攻撃と保護の複雑さの複雑な相互作用を解明するための理論的枠組みを提案する。
我々は,「Attack Complexity」を,与えられたエラーしきい値以下でプライベートデータを再構築するために必要な最小の計算・データリソースと定義し,プライバシーメカニズムがもたらす予測歪みとして「Protection Complexity」を定義した。
最大ベイズプライバシー(MBP)を活用して、モデル次元とプライバシ予算によるスケーリングを実証し、保護の複雑さに関する厳密な理論的境界を導出します。
さらに,プライバシリーク,勾配歪み,モデル次元,選択したプライバシレベルへの依存を明らかにすることで,攻撃複雑性の包括的境界を確立する。
我々の発見は、プライバシ保証、システムユーティリティ、および攻撃と防衛の両方に必要な努力の基本的なトレードオフを定量的に明らかにしている。
このフレームワークは、よりセキュアで効率的なフェデレーション学習システムを設計するための重要な洞察を提供する。
関連論文リスト
- How Breakable Is Privacy: Probing and Resisting Model Inversion Attacks in Collaborative Inference [13.453033795109155]
協調推論は、中間機能をクラウドモデルに伝達することでエッジデバイスの計算効率を向上させる。
モデル逆攻撃(MIA)の難しさを評価するための確立された基準はない。
本稿では、CIにおけるMIAの難易度を評価するための最初の理論的基準を提案し、相互情報、エントロピー、有効情報量などを重要な要因として同定する。
論文 参考訳(メタデータ) (2025-01-01T13:00:01Z) - Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - Bridging Privacy and Robustness for Trustworthy Machine Learning [6.318638597489423]
機械学習システムは、データ摂動や敵の操作に対して本質的に堅牢性を必要とする。
本稿では,局所微分プライバシー(LDP)と最大ベイズプライバシー(MBP)の複雑な理論的関係を体系的に検討する。
我々はこれらのプライバシー概念をアルゴリズム的堅牢性、特に確率的略正(PAC)学習フレームワークにブリッジする。
論文 参考訳(メタデータ) (2024-03-25T10:06:45Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Trading Off Privacy, Utility and Efficiency in Federated Learning [22.53326117450263]
プライバシリーク、ユーティリティ損失、効率低下の間のトレードオフを定式化し、定量化する。
我々は, プライバシー漏洩, ユーティリティ損失, 効率の低下など, 広く認識されている保護機構の下位領域を解析した。
論文 参考訳(メタデータ) (2022-09-01T05:20:04Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Federated Deep Learning with Bayesian Privacy [28.99404058773532]
フェデレートラーニング(FL)は、ユーザ間でプライベートデータを共有せずにモデルを協調的に学習することで、データのプライバシを保護することを目的としている。
ホモモルフィック暗号化(HE)ベースの手法は、セキュアなプライバシ保護を提供するが、非常に高い計算と通信のオーバーヘッドに悩まされる。
差分プライバシ(DP)を用いたディープラーニングは,複雑な管理コストで実践的な学習アルゴリズムとして実装された。
論文 参考訳(メタデータ) (2021-09-27T12:48:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。