論文の概要: The Gradient Puppeteer: Adversarial Domination in Gradient Leakage Attacks through Model Poisoning
- arxiv url: http://arxiv.org/abs/2502.04106v1
- Date: Thu, 06 Feb 2025 14:31:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 14:29:09.372673
- Title: The Gradient Puppeteer: Adversarial Domination in Gradient Leakage Attacks through Model Poisoning
- Title(参考訳): グラディエント Puppeteer:モデル中毒によるグラディエント漏洩攻撃における逆行性支配
- Authors: Kunlan Xiang, Haomiao Yang, Meng Hao, Haoxin Wang, Shaofeng Li, Zikang Ding, Tianwei Zhang,
- Abstract要約: Federated Learning (FL)では、クライアントはデータをローカルに保ちながら、中央サーバと勾配を共有する。
悪意のあるサーバーは、クライアントのデータを共有勾配から再構築するために、故意にモデルを操作できる。
本稿では,AGLAをバックドア中毒として均一にモデル化する理論解析手法を提案する。
我々は,クライアント側検出を回避しつつ,完全な攻撃カバレッジを実現する最初のAGLAであるEGGV(Enhanced Gradient Global Vulnerability)を提案する。
- 参考スコア(独自算出の注目度): 14.424323591908939
- License:
- Abstract: In Federated Learning (FL), clients share gradients with a central server while keeping their data local. However, malicious servers could deliberately manipulate the models to reconstruct clients' data from shared gradients, posing significant privacy risks. Although such active gradient leakage attacks (AGLAs) have been widely studied, they suffer from several limitations including incomplete attack coverage and poor stealthiness. In this paper, we address these limitations with two core contributions. First, we introduce a new theoretical analysis approach, which uniformly models AGLAs as backdoor poisoning. This analysis approach reveals that the core principle of AGLAs is to bias the gradient space to prioritize the reconstruction of a small subset of samples while sacrificing the majority, which theoretically explains the above limitations of existing AGLAs. Second, we propose Enhanced Gradient Global Vulnerability (EGGV), the first AGLA that achieves complete attack coverage while evading client-side detection. In particular, EGGV employs a gradient projector and a jointly optimized discriminator to assess gradient vulnerability, steering the gradient space toward the point most prone to data leakage. Extensive experiments show that EGGV achieves complete attack coverage and surpasses SOTA with at least a 43% increase in reconstruction quality (PSNR) and a 45% improvement in stealthiness (D-SNR).
- Abstract(参考訳): Federated Learning (FL)では、クライアントはデータをローカルに保ちながら、中央サーバと勾配を共有する。
しかし、悪意のあるサーバは、クライアントのデータを共有勾配から再構築するために、意図的にモデルを操作できるため、重大なプライバシーリスクが生じる可能性がある。
このような活動的勾配漏洩攻撃(AGLA)は広く研究されているが、不完全な攻撃カバレッジや盗聴の欠如など、いくつかの制限に悩まされている。
本稿では、これらの制限を2つのコアコントリビューションで解決する。
まず,AGLAをバックドア中毒として均一にモデル化する理論解析手法を提案する。
この分析手法により、AGLAの核となる原理は、既存のAGLAの限界を理論的に説明しながら、サンプルの小さな部分集合の再構築を優先するために勾配空間に偏りがあることが分かる。
第2に,クライアント側検出を回避しつつ,完全な攻撃カバレッジを実現する最初のAGLAであるEGGV(Enhanced Gradient Global Vulnerability)を提案する。
特に、EGGVは勾配プロジェクタと共同最適化された判別器を用いて勾配の脆弱性を評価し、データ漏洩の最も多い点に向かって勾配空間を操る。
広範囲にわたる実験の結果,EGGVは全攻撃範囲を達成し,少なくとも再建品質(PSNR)が43%向上し,ステルスネス(D-SNR)が45%向上した。
関連論文リスト
- CENSOR: Defense Against Gradient Inversion via Orthogonal Subspace Bayesian Sampling [63.07948989346385]
フェデレーション学習は、グローバルサーバ上でニューラルネットワークを協調的にトレーニングする。
各ローカルクライアントは、現在のグローバルモデルウェイトを受信し、そのローカルプライベートデータに基づいてパラメータ更新(グラディエント)を返送する。
既存の勾配反転攻撃は、クライアントの勾配ベクトルからプライベートトレーニングインスタンスを復元するためにこの脆弱性を利用することができる。
本稿では,大規模ニューラルネットワークモデルに適した新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2025-01-27T01:06:23Z) - Gradient Purification: Defense Against Poisoning Attack in Decentralized Federated Learning [21.892850886276317]
GPDと呼ばれる勾配浄化防御は、既存のDFLアグリゲーションとシームレスに統合され、中毒攻撃から防御される。
モデルグラデーションの害を軽減することを目的としており、モデルの重み付けの利点を保ち、精度を高めることを目的としている。
様々な毒殺攻撃に対する正確性という点で、最先端の防御を著しく上回っている。
論文 参考訳(メタデータ) (2025-01-08T12:14:00Z) - Breaking Secure Aggregation: Label Leakage from Aggregated Gradients in Federated Learning [11.18348760596715]
Federated Learningは、勾配反転攻撃(GIA)下でのプライバシーの脆弱性を示す
セキュリティアグリゲーション(SA)を回避し、個々のクライアントのプライベートラベルを復元するために、ステルスなラベル推論攻撃を提案する。
我々の攻撃は、様々なデータセットやモデルアーキテクチャ上で、100%精度で大規模なラベル回復を実現する。
論文 参考訳(メタデータ) (2024-06-22T04:42:18Z) - Rethinking PGD Attack: Is Sign Function Necessary? [131.6894310945647]
本稿では,このような手話に基づく更新アルゴリズムが段階的攻撃性能にどのように影響するかを理論的に分析する。
本稿では,手話の使用を排除したRGDアルゴリズムを提案する。
提案したRGDアルゴリズムの有効性は実験で広く実証されている。
論文 参考訳(メタデータ) (2023-12-03T02:26:58Z) - A Theoretical Insight into Attack and Defense of Gradient Leakage in
Transformer [11.770915202449517]
グラディエント(DLG)攻撃によるDeep Leakageは、交換勾配を検査してセンシティブなトレーニングデータを抽出する方法として、広く普及している。
本研究は, 変圧器モデルに特に適用した場合の勾配漏洩法を包括的に解析する。
論文 参考訳(メタデータ) (2023-11-22T09:58:01Z) - Understanding Deep Gradient Leakage via Inversion Influence Functions [53.1839233598743]
Deep Gradient Leakage (DGL)は、勾配ベクトルからプライベートトレーニングイメージを復元する非常に効果的な攻撃である。
得られた画像とプライベート勾配との間の閉形式接続を確立する新しいインバージョンインフルエンス関数(I$2$F)を提案する。
I$2$Fは、一般的に異なるモデルアーキテクチャ、データセット、アタック実装、摂動に基づく防御に基づいてDGLを効果的に近似したことを実証的に実証した。
論文 参考訳(メタデータ) (2023-09-22T17:26:24Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Dynamically Sampled Nonlocal Gradients for Stronger Adversarial Attacks [3.055601224691843]
深層ニューラルネットワークの脆弱性は、小さな、さらには知覚不能な摂動にも影響し、ディープラーニング研究の中心的なトピックとなっている。
脆弱性防御機構として動的に動的に非局所グラディエント蛍光(DSNGD)を提案する。
DSNGDベースの攻撃は平均35%高速であり、勾配降下型攻撃よりも0.9%から27.1%高い成功率を示した。
論文 参考訳(メタデータ) (2020-11-05T08:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。