論文の概要: Auditing Privacy Defenses in Federated Learning via Generative Gradient
Leakage
- arxiv url: http://arxiv.org/abs/2203.15696v1
- Date: Tue, 29 Mar 2022 15:59:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 15:39:09.121988
- Title: Auditing Privacy Defenses in Federated Learning via Generative Gradient
Leakage
- Title(参考訳): 生成的勾配漏洩による連合学習におけるプライバシー保護の監査
- Authors: Zhuohang Li, Jiaxin Zhang, Luyang Liu, Jian Liu
- Abstract要約: Federated Learning (FL)フレームワークは、分散学習システムにプライバシーの利点をもたらす。
近年の研究では、共有情報を通じて個人情報を漏洩させることが報告されている。
我々は,GGL(Generative Gradient Leakage)と呼ばれる新しいタイプのリーク手法を提案する。
- 参考スコア(独自算出の注目度): 9.83989883339971
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) framework brings privacy benefits to distributed
learning systems by allowing multiple clients to participate in a learning task
under the coordination of a central server without exchanging their private
data. However, recent studies have revealed that private information can still
be leaked through shared gradient information. To further protect user's
privacy, several defense mechanisms have been proposed to prevent privacy
leakage via gradient information degradation methods, such as using additive
noise or gradient compression before sharing it with the server. In this work,
we validate that the private training data can still be leaked under certain
defense settings with a new type of leakage, i.e., Generative Gradient Leakage
(GGL). Unlike existing methods that only rely on gradient information to
reconstruct data, our method leverages the latent space of generative
adversarial networks (GAN) learned from public image datasets as a prior to
compensate for the informational loss during gradient degradation. To address
the nonlinearity caused by the gradient operator and the GAN model, we explore
various gradient-free optimization methods (e.g., evolution strategies and
Bayesian optimization) and empirically show their superiority in reconstructing
high-quality images from gradients compared to gradient-based optimizers. We
hope the proposed method can serve as a tool for empirically measuring the
amount of privacy leakage to facilitate the design of more robust defense
mechanisms.
- Abstract(参考訳): Federated Learning (FL)フレームワークは、複数のクライアントがプライベートデータを交換することなく、中央サーバーの調整の下で学習タスクに参加できるようにすることで、分散学習システムにプライバシー上のメリットをもたらす。
しかし,近年の研究では,共有勾配情報を通じてプライベート情報を漏洩させることが報告されている。
ユーザのプライバシーをさらに保護するために,サーバと共有する前に付加雑音や勾配圧縮などの勾配情報劣化手法によるプライバシー漏洩を防止するための防御機構が提案されている。
本研究では,新たなタイプの漏洩,すなわちGGL(Generative Gradient Leakage)を用いて,特定の防御条件下でプライベートトレーニングデータが漏洩可能であることを検証した。
データの再構成に勾配情報のみを頼りにしている既存の手法とは異なり, この手法は, 画像データセットから学習した生成逆数ネットワーク(GAN)の潜時空間を利用して, 勾配劣化時の情報損失を補う。
勾配演算子とGANモデルによって引き起こされる非線形性に対処するため、様々な勾配のない最適化手法(例えば、進化戦略やベイズ最適化)を探索し、勾配に基づく最適化よりも勾配から高品質な画像を再構成する際の優位性を実証的に示す。
提案手法は,より堅牢な防御機構の設計を容易にするために,プライバシー漏洩量を実証的に測定するためのツールとして機能することを期待する。
関連論文リスト
- Ungeneralizable Examples [70.76487163068109]
学習不能なデータを作成するための現在のアプローチには、小さくて特殊なノイズが組み込まれている。
学習不能データの概念を条件付きデータ学習に拡張し、textbfUntextbf Generalizable textbfExamples (UGEs)を導入する。
UGEは認証されたユーザに対して学習性を示しながら、潜在的なハッカーに対する非学習性を維持している。
論文 参考訳(メタデータ) (2024-04-22T09:29:14Z) - Revisiting Gradient Pruning: A Dual Realization for Defending against
Gradient Attacks [16.037627212754487]
コラボレーション学習(Collaborative Learning, CL)は,勾配更新のみを共有することによって,モデルを共同でトレーニングする分散学習フレームワークである。
共有勾配からユーザーのトレーニングデータを復元するグラデーションインバージョンアタック(GIA)は、CLに深刻なプライバシー上の脅威を課す。
本稿では,CLの実用性とプライバシを保ちながら通信効率を向上させる新しい防衛手法であるデュアルグラディエント・プルーニング(DGP)を提案する。
論文 参考訳(メタデータ) (2024-01-30T02:18:30Z) - Segue: Side-information Guided Generative Unlearnable Examples for
Facial Privacy Protection in Real World [64.4289385463226]
生成不可能な例としては、Segue: Side-information guided Generative unlearnable Exampleを提案する。
転送性を向上させるために,真のラベルや擬似ラベルなどの側面情報を導入する。
JPEG圧縮、敵対的トレーニング、およびいくつかの標準的なデータ拡張に抵抗することができる。
論文 参考訳(メタデータ) (2023-10-24T06:22:37Z) - Understanding Deep Gradient Leakage via Inversion Influence Functions [53.1839233598743]
Deep Gradient Leakage (DGL)は、勾配ベクトルからプライベートトレーニングイメージを復元する非常に効果的な攻撃である。
得られた画像とプライベート勾配との間の閉形式接続を確立する新しいインバージョンインフルエンス関数(I$2$F)を提案する。
I$2$Fは、一般的に異なるモデルアーキテクチャ、データセット、アタック実装、摂動に基づく防御に基づいてDGLを効果的に近似したことを実証的に実証した。
論文 参考訳(メタデータ) (2023-09-22T17:26:24Z) - GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - Gradient Leakage Defense with Key-Lock Module for Federated Learning [14.411227689702997]
Federated Learning(FL)は、プライバシ保護機械学習アプローチとして広く採用されている。
最近の発見は、プライバシーが侵害され、共有勾配から機密情報が回収される可能性があることを示している。
秘密鍵ロックモジュールを用いて任意のモデルアーキテクチャをセキュアにするための新しい勾配リーク防御手法を提案する。
論文 参考訳(メタデータ) (2023-05-06T16:47:52Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Gradient Obfuscation Gives a False Sense of Security in Federated
Learning [41.36621813381792]
フェデレート学習における画像分類課題を対象とした新しいデータ再構成攻撃フレームワークを提案する。
従来の研究とは対照的に、プライバシー強化は勾配圧縮の副産物として扱われるべきではない。
論文 参考訳(メタデータ) (2022-06-08T13:01:09Z) - Defense Against Gradient Leakage Attacks via Learning to Obscure Data [48.67836599050032]
フェデレートラーニングは、効果的なプライバシー保護学習メカニズムと考えられている。
本稿では,不明瞭なデータに学習することで,クライアントのデータ保護のための新しい防御手法を提案する。
論文 参考訳(メタデータ) (2022-06-01T21:03:28Z) - Gradient Inversion with Generative Image Prior [37.03737843861339]
Federated Learning(FL)は、ローカルデータがクライアントデバイスから離れてプライバシを保存する、分散学習フレームワークである。
データ配信で事前訓練された生成モデルを利用することで、データのプライバシが容易に破られることを示す。
本研究では,FLにおける反復的相互作用から,前者の生成モデルが学習可能であることを示す。
論文 参考訳(メタデータ) (2021-10-28T09:04:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。