論文の概要: Local Differential Privacy is Not Enough: A Sample Reconstruction Attack against Federated Learning with Local Differential Privacy
- arxiv url: http://arxiv.org/abs/2502.08151v1
- Date: Wed, 12 Feb 2025 06:37:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-13 13:48:38.722506
- Title: Local Differential Privacy is Not Enough: A Sample Reconstruction Attack against Federated Learning with Local Differential Privacy
- Title(参考訳): ローカル差分プライバシーは十分ではない: ローカル差分プライバシーによるフェデレーション学習に対するサンプル再構成攻撃
- Authors: Zhichao You, Xuewen Dong, Shujun Li, Ximeng Liu, Siqi Ma, Yulong Shen,
- Abstract要約: ローカルディファレンシャルプライバシ(LDP)は、フェデレートラーニング(FL)におけるサンプル再構成を含む、様々な攻撃に対する効果的な防御であると考えられている。
既存の攻撃は、切断・摂動勾配が再建のためのほとんどのサンプル情報を消し去るため、FLではLDPでは効果がない。
本稿では, LDPをベースとしたFLに対して, 被害者の敏感なサンプルを再構築するためのターゲットモデルを用いたサンプル再構成攻撃を提案する。
- 参考スコア(独自算出の注目度): 36.9543497931374
- License:
- Abstract: Reconstruction attacks against federated learning (FL) aim to reconstruct users' samples through users' uploaded gradients. Local differential privacy (LDP) is regarded as an effective defense against various attacks, including sample reconstruction in FL, where gradients are clipped and perturbed. Existing attacks are ineffective in FL with LDP since clipped and perturbed gradients obliterate most sample information for reconstruction. Besides, existing attacks embed additional sample information into gradients to improve the attack effect and cause gradient expansion, leading to a more severe gradient clipping in FL with LDP. In this paper, we propose a sample reconstruction attack against LDP-based FL with any target models to reconstruct victims' sensitive samples to illustrate that FL with LDP is not flawless. Considering gradient expansion in reconstruction attacks and noise in LDP, the core of the proposed attack is gradient compression and reconstructed sample denoising. For gradient compression, an inference structure based on sample characteristics is presented to reduce redundant gradients against LDP. For reconstructed sample denoising, we artificially introduce zero gradients to observe noise distribution and scale confidence interval to filter the noise. Theoretical proof guarantees the effectiveness of the proposed attack. Evaluations show that the proposed attack is the only attack that reconstructs victims' training samples in LDP-based FL and has little impact on the target model's accuracy. We conclude that LDP-based FL needs further improvements to defend against sample reconstruction attacks effectively.
- Abstract(参考訳): FL(Federated Learning)に対する再構築攻撃は,ユーザのアップロードした勾配を通じて,ユーザのサンプルを再構築することを目的としている。
ローカルディファレンシャルプライバシ(LDP)は、FLのサンプル再構成を含む様々な攻撃に対する効果的な防御であり、勾配を切断して乱れさせる。
既存の攻撃は、切断・摂動勾配が再建のためのほとんどのサンプル情報を消し去るため、FLではLDPでは効果がない。
さらに、既存の攻撃は、追加のサンプル情報を勾配に埋め込んで攻撃効果を改善し、勾配拡大を引き起こす。
本稿では, LDP を用いた FL が不完全でないことを示すために, 対象モデルを用いた LDP ベースの FL に対するサンプル再構成攻撃を提案する。
復元攻撃の勾配拡大とLDPの雑音を考えると,提案攻撃のコアは勾配圧縮と再構成サンプル復調である。
勾配圧縮では、サンプル特性に基づく推論構造が示され、LCPに対する冗長勾配が減少する。
再構成されたサンプル復調のために,ノイズ分布を観測し,信頼区間を拡大し,ノイズをフィルタするゼロ勾配を導入する。
理論的証明は、提案された攻撃の有効性を保証する。
評価の結果, 対象モデルの精度にはほとんど影響を与えず, LDPベースのFLにおいて, 被害者のトレーニングサンプルを再構築する攻撃は, 提案攻撃のみであることが明らかとなった。
我々は, LDPをベースとしたFLは, サンプル復元攻撃を効果的に防ぐために, さらなる改善が必要であると結論付けた。
関連論文リスト
- DiffAttack: Evasion Attacks Against Diffusion-Based Adversarial
Purification [63.65630243675792]
拡散に基づく浄化防御は拡散モデルを利用して、敵の例の人工摂動を除去する。
近年の研究では、先進的な攻撃でさえ、そのような防御を効果的に破壊できないことが示されている。
拡散型浄化防衛を効果的かつ効率的に行うための統合フレームワークDiffAttackを提案する。
論文 参考訳(メタデータ) (2023-10-27T15:17:50Z) - Towards the Flatter Landscape and Better Generalization in Federated
Learning under Client-level Differential Privacy [67.33715954653098]
本稿では,DPの負の影響を軽減するために勾配摂動を利用するDP-FedSAMという新しいDPFLアルゴリズムを提案する。
具体的には、DP-FedSAM は Sharpness Aware of Minimization (SAM) を統合し、安定性と重みのある局所平坦度モデルを生成する。
より優れた性能を保ちながら、さらにマグニチュードランダムノイズを低減するために、ローカル更新スペーシフィケーション手法を用いてDP-FedSAM-$top_k$を提案する。
論文 参考訳(メタデータ) (2023-05-01T15:19:09Z) - STDLens: Model Hijacking-Resilient Federated Learning for Object
Detection [13.895922908738507]
Federated Learning (FL)は、ディープラーニングに基づくオブジェクト検出モデルをクライアントの分散集団でトレーニングするための協調学習フレームワークとして人気を集めている。
その利点にもかかわらず、FLはモデルハイジャックに弱い。
本稿では,このような攻撃に対してFLを保護するための原則的アプローチであるSTDLensを紹介する。
論文 参考訳(メタデータ) (2023-03-21T00:15:53Z) - Make Landscape Flatter in Differentially Private Federated Learning [69.78485792860333]
本稿では,DPの負の影響を軽減するために勾配摂動を利用するDP-FedSAMという新しいDPFLアルゴリズムを提案する。
具体的には、DP-FedSAMは、局所的な平坦性モデルと、より優れた安定性と重量頑健性を統合し、DPノイズに対する局所的な更新とロバスト性の小さなノルムをもたらす。
提案アルゴリズムは,DPFLの既存のSOTAベースラインと比較して,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2023-03-20T16:27:36Z) - Balancing Privacy Protection and Interpretability in Federated Learning [8.759803233734624]
フェデレートラーニング(FL)は、ローカルクライアントから中央サーバにモデルパラメータを共有することで、グローバルモデルを分散的にトレーニングすることを目的としている。
近年の研究では、FLは情報漏洩に悩まされており、敵はローカルクライアントから共有パラメータを解析してトレーニングデータを回復しようとする。
本稿では,FLにおけるクライアントモデルの勾配に雑音を選択的に追加する,単純かつ効果的な適応型微分プライバシー(ADP)機構を提案する。
論文 参考訳(メタデータ) (2023-02-16T02:58:22Z) - Proposal Distribution Calibration for Few-Shot Object Detection [65.19808035019031]
few-shot object detection (FSOD)では、重度のサンプル不均衡を軽減するために、2段階の訓練パラダイムが広く採用されている。
残念ながら、極端なデータ不足は、提案の分布バイアスを増大させ、RoIヘッドが新しいクラスに進化するのを妨げます。
本稿では,RoIヘッドのローカライゼーションと分類能力を高めるために,単純かつ効果的な提案分布キャリブレーション(PDC)手法を提案する。
論文 参考訳(メタデータ) (2022-12-15T05:09:11Z) - Ada3Diff: Defending against 3D Adversarial Point Clouds via Adaptive
Diffusion [70.60038549155485]
ディープ3Dポイントクラウドモデルは敵攻撃に敏感であり、自律運転のような安全クリティカルなアプリケーションに脅威をもたらす。
本稿では,適応強度推定器と拡散モデルを用いて,プリスタンデータ分布を再構築できる新しい歪み認識型防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-29T14:32:43Z) - Learning to Invert: Simple Adaptive Attacks for Gradient Inversion in
Federated Learning [31.374376311614675]
グラディエント・インバージョン・アタックは、フェデレート学習におけるモデル勾配からのトレーニングサンプルの回復を可能にする。
既存の防御は、単純な適応攻撃によって破壊される可能性があることを示す。
論文 参考訳(メタデータ) (2022-10-19T20:41:30Z) - Concealing Sensitive Samples against Gradient Leakage in Federated
Learning [41.43099791763444]
Federated Learning(FL)は、クライアントが生のプライベートデータをサーバと共有する必要をなくし、ユーザのプライバシを高める分散学習パラダイムである。
近年の研究では、FLの脆弱性が逆攻撃のモデルとなり、敵は共有勾配情報に基づく盗聴によって個人データを再構築している。
我々は,機密データの勾配を隠蔽標本で曖昧にする,シンプルで効果的な防衛戦略を提案する。
論文 参考訳(メタデータ) (2022-09-13T04:19:35Z) - A Novel Attribute Reconstruction Attack in Federated Learning [7.426857207652392]
フェデレーテッド・ラーニング(FL)は、多数の参加者がプライベートトレーニングデータを公開することなく、共同MLモデルを構築することが可能な、有望な学習パラダイムとして登場した。
既存のFL設計では、システム内外の敵がデータプライバシーを侵害するために悪用できる脆弱性が示されている。
トレーニングデータ属性を再構築するためのcos-matchingと呼ばれる,より効率的で効率的な勾配マッチング手法を開発した。
論文 参考訳(メタデータ) (2021-08-16T05:57:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。