論文の概要: Enhanced Privacy Leakage from Noise-Perturbed Gradients via Gradient-Guided Conditional Diffusion Models
- arxiv url: http://arxiv.org/abs/2511.10423v1
- Date: Fri, 14 Nov 2025 01:50:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.861412
- Title: Enhanced Privacy Leakage from Noise-Perturbed Gradients via Gradient-Guided Conditional Diffusion Models
- Title(参考訳): 勾配誘導条件拡散モデルによる騒音変動勾配からの高次プライバシー漏洩
- Authors: Jiayang Meng, Tao Huang, Hong Chen, Chen Hou, Guolong Zheng,
- Abstract要約: フェデレーション学習は、勾配伝達と集約を通じてモデルを同期させる。
これらの勾配は、センシティブなトレーニングデータが組み込まれているため、プライバシー上の重大なリスクをもたらす。
既存の勾配反転攻撃は、雑音によって勾配が乱されるとき、大幅に劣化した復元性能に悩まされる。
- 参考スコア(独自算出の注目度): 26.493235454865538
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning synchronizes models through gradient transmission and aggregation. However, these gradients pose significant privacy risks, as sensitive training data is embedded within them. Existing gradient inversion attacks suffer from significantly degraded reconstruction performance when gradients are perturbed by noise-a common defense mechanism. In this paper, we introduce Gradient-Guided Conditional Diffusion Models (GG-CDMs) for reconstructing private images from leaked gradients without prior knowledge of the target data distribution. Our approach leverages the inherent denoising capability of diffusion models to circumvent the partial protection offered by noise perturbation, thereby improving attack performance under such defenses. We further provide a theoretical analysis of the reconstruction error bounds and the convergence properties of attack loss, characterizing the impact of key factors-such as noise magnitude and attacked model architecture-on reconstruction quality. Extensive experiments demonstrate our attack's superior reconstruction performance with Gaussian noise-perturbed gradients, and confirm our theoretical findings.
- Abstract(参考訳): フェデレーション学習は、勾配伝達と集約を通じてモデルを同期させる。
しかし、これらの勾配は、センシティブなトレーニングデータが組み込まれているため、プライバシー上の重大なリスクをもたらす。
既存の勾配反転攻撃は、ノイズ・共通の防御機構によって勾配が乱されるとき、大幅に劣化した復元性能に悩まされる。
本稿では,GG-CDM(Gradient-Guided Conditional Diffusion Model)を提案する。
提案手法は,拡散モデルの固有雑音除去能力を活用し,ノイズの摂動による部分的保護を回避することにより,そのような防御下での攻撃性能を向上させる。
さらに, 復元誤差境界と攻撃損失の収束特性を理論的に解析し, ノイズ等重要要因の影響を特徴づける。
広汎な実験により,ガウス雑音摂動勾配による攻撃の優れた再建性能を実証し,理論的な結果を確認した。
関連論文リスト
- Generative Model Inversion Through the Lens of the Manifold Hypothesis [98.37040155914595]
モデル反転攻撃(MIA)は、訓練されたモデルからクラス表現型サンプルを再構成することを目的としている。
最近の生成的MIAは、生成的敵ネットワークを使用して、反転過程を導く画像の事前学習を行う。
論文 参考訳(メタデータ) (2025-09-24T14:39:25Z) - Gradient-Guided Conditional Diffusion Models for Private Image Reconstruction: Analyzing Adversarial Impacts of Differential Privacy and Denoising [21.30726250408398]
現在の勾配に基づく再構成手法は、計算複雑性と事前知識の要求により、高解像度画像に苦慮している。
本稿では,拡散モデルの生成過程に最小限の変更を必要とする2つの新しい手法を提案し,事前知識の必要性を排除した。
我々は,差分プライバシーノイズが再構成画像の品質に与える影響を総合的に理論的に分析し,雑音の大きさ,攻撃モデルのアーキテクチャ,攻撃者の復元能力との関係を明らかにする。
論文 参考訳(メタデータ) (2024-11-05T12:39:21Z) - Mjolnir: Breaking the Shield of Perturbation-Protected Gradients via Adaptive Diffusion [13.764770382623812]
フェデレートラーニングにおける勾配摂動保護のシールドを破ろうとする試みについて紹介する。
摂動抵抗性勾配漏洩攻撃であるMjolnirを導入する。
Mjolnirは、オリジナルのモデル構造や外部データへのアクセスを必要とせずに、勾配から摂動を取り除くことができる。
論文 参考訳(メタデータ) (2024-07-07T07:06:49Z) - Reconstruction Distortion of Learned Image Compression with
Imperceptible Perturbations [69.25683256447044]
本稿では,学習画像圧縮(lic)の再構成品質を効果的に劣化させる攻撃手法を提案する。
我々は,Frobeniusノルムに基づく損失関数を導入して,元の画像と再構成された逆例との差を最大化することによって,逆例を生成する。
様々なlicモデルを用いてKodakデータセット上で実験を行った結果,有効性が確認された。
論文 参考訳(メタデータ) (2023-06-01T20:21:05Z) - DiffusionAD: Norm-guided One-step Denoising Diffusion for Anomaly Detection [80.20339155618612]
DiffusionADは、再構成サブネットワークとセグメンテーションサブネットワークからなる、新しい異常検出パイプラインである。
高速なワンステップデノゲーションパラダイムは、同等の再現品質を維持しながら、数百倍の加速を達成する。
異常の出現の多様性を考慮し、複数のノイズスケールの利点を統合するためのノルム誘導パラダイムを提案する。
論文 参考訳(メタデータ) (2023-03-15T16:14:06Z) - DR2: Diffusion-based Robust Degradation Remover for Blind Face
Restoration [66.01846902242355]
ブラインド顔復元は通常、トレーニングのための事前定義された劣化モデルで劣化した低品質データを合成する。
トレーニングデータに現実のケースをカバーするために、あらゆる種類の劣化を含めることは、高価で実現不可能である。
本稿では、まず、劣化した画像を粗いが劣化不変な予測に変換し、次に、粗い予測を高品質な画像に復元するために拡張モジュールを使用するロバスト劣化再帰法(DR2)を提案する。
論文 参考訳(メタデータ) (2023-03-13T06:05:18Z) - Combining Stochastic Defenses to Resist Gradient Inversion: An Ablation Study [6.766058964358335]
差分プライバシー(DP)やプライバシモジュール(PM)のような一般的な防御メカニズムは、そのような攻撃を防ぐために計算中にランダム性を導入する。
本稿では,この原理を応用し,共通防御機構をバイパスするターゲットGI攻撃について紹介する。
論文 参考訳(メタデータ) (2022-08-09T13:23:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。