論文の概要: Gradient Obfuscation Gives a False Sense of Security in Federated
Learning
- arxiv url: http://arxiv.org/abs/2206.04055v1
- Date: Wed, 8 Jun 2022 13:01:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 13:25:20.567666
- Title: Gradient Obfuscation Gives a False Sense of Security in Federated
Learning
- Title(参考訳): グラディエント難読化(Gradient Obfuscation)は、フェデレートラーニングにおけるセキュリティの感覚を高める
- Authors: Kai Yue, Richeng Jin, Chau-Wai Wong, Dror Baron, Huaiyu Dai
- Abstract要約: フェデレート学習における画像分類課題を対象とした新しいデータ再構成攻撃フレームワークを提案する。
従来の研究とは対照的に、プライバシー強化は勾配圧縮の副産物として扱われるべきではない。
- 参考スコア(独自算出の注目度): 41.36621813381792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning has been proposed as a privacy-preserving machine learning
framework that enables multiple clients to collaborate without sharing raw
data. However, client privacy protection is not guaranteed by design in this
framework. Prior work has shown that the gradient sharing strategies in
federated learning can be vulnerable to data reconstruction attacks. In
practice, though, clients may not transmit raw gradients considering the high
communication cost or due to privacy enhancement requirements. Empirical
studies have demonstrated that gradient obfuscation, including intentional
obfuscation via gradient noise injection and unintentional obfuscation via
gradient compression, can provide more privacy protection against
reconstruction attacks. In this work, we present a new data reconstruction
attack framework targeting the image classification task in federated learning.
We show that commonly adopted gradient postprocessing procedures, such as
gradient quantization, gradient sparsification, and gradient perturbation, may
give a false sense of security in federated learning. Contrary to prior
studies, we argue that privacy enhancement should not be treated as a byproduct
of gradient compression. Additionally, we design a new method under the
proposed framework to reconstruct the image at the semantic level. We quantify
the semantic privacy leakage and compare with conventional based on image
similarity scores. Our comparisons challenge the image data leakage evaluation
schemes in the literature. The results emphasize the importance of revisiting
and redesigning the privacy protection mechanisms for client data in existing
federated learning algorithms.
- Abstract(参考訳): フェデレートラーニングは、複数のクライアントが生データを共有せずにコラボレーションできるプライバシー保護機械学習フレームワークとして提案されている。
しかし、このフレームワークの設計によってクライアントのプライバシー保護は保証されない。
先行研究により、フェデレーション学習における勾配共有戦略は、データ再構成攻撃に対して脆弱であることが示されている。
しかし、実際には、高い通信コストやプライバシー強化の要求により、クライアントは生の勾配を送信できない。
実験的研究は、勾配雑音注入による意図的難読化や、勾配圧縮による意図しない難読化を含む勾配難読化が、再建攻撃に対するよりプライバシー保護を提供することを示した。
本稿では,フェデレーション学習における画像分類タスクを対象とする新しいデータ再構成攻撃フレームワークを提案する。
勾配量子化,勾配スパース化,勾配摂動といった一般的な勾配後処理手法は,連合学習において誤った安心感を与える可能性がある。
従来の研究とは対照的に、プライバシー強化は勾配圧縮の副産物として扱うべきではない。
さらに,提案手法に基づいて,意味レベルで画像を再構成するための新しい手法を考案する。
画像類似度スコアに基づいて,プライバシの漏えいを定量化し,従来型と比較する。
本比較は,文献における画像データ漏洩評価手法に挑戦する。
その結果,既存のフェデレーション学習アルゴリズムにおけるクライアントデータのプライバシー保護機構の再検討と再設計の重要性を強調した。
関連論文リスト
- Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Understanding Deep Gradient Leakage via Inversion Influence Functions [53.1839233598743]
Deep Gradient Leakage (DGL)は、勾配ベクトルからプライベートトレーニングイメージを復元する非常に効果的な攻撃である。
得られた画像とプライベート勾配との間の閉形式接続を確立する新しいインバージョンインフルエンス関数(I$2$F)を提案する。
I$2$Fは、一般的に異なるモデルアーキテクチャ、データセット、アタック実装、摂動に基づく防御に基づいてDGLを効果的に近似したことを実証的に実証した。
論文 参考訳(メタデータ) (2023-09-22T17:26:24Z) - Concealing Sensitive Samples against Gradient Leakage in Federated
Learning [41.43099791763444]
Federated Learning(FL)は、クライアントが生のプライベートデータをサーバと共有する必要をなくし、ユーザのプライバシを高める分散学習パラダイムである。
近年の研究では、FLの脆弱性が逆攻撃のモデルとなり、敵は共有勾配情報に基づく盗聴によって個人データを再構築している。
我々は,機密データの勾配を隠蔽標本で曖昧にする,シンプルで効果的な防衛戦略を提案する。
論文 参考訳(メタデータ) (2022-09-13T04:19:35Z) - Defense Against Gradient Leakage Attacks via Learning to Obscure Data [48.67836599050032]
フェデレートラーニングは、効果的なプライバシー保護学習メカニズムと考えられている。
本稿では,不明瞭なデータに学習することで,クライアントのデータ保護のための新しい防御手法を提案する。
論文 参考訳(メタデータ) (2022-06-01T21:03:28Z) - Aggregating Gradients in Encoded Domain for Federated Learning [19.12395694047359]
悪意のある攻撃者や、率直に言ってクレージーなサーバは、フェデレート学習においてアップロードされた勾配からプライベートクライアントデータを盗むことができる。
我々は、サーバが単一のクライアントの生の勾配にアクセスすることなく、エンコードされたドメインの勾配を集約できるtextttFedAGEフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-26T08:20:19Z) - Auditing Privacy Defenses in Federated Learning via Generative Gradient
Leakage [9.83989883339971]
Federated Learning (FL)フレームワークは、分散学習システムにプライバシーの利点をもたらす。
近年の研究では、共有情報を通じて個人情報を漏洩させることが報告されている。
我々は,GGL(Generative Gradient Leakage)と呼ばれる新しいタイプのリーク手法を提案する。
論文 参考訳(メタデータ) (2022-03-29T15:59:59Z) - Federated Learning for Face Recognition with Gradient Correction [52.896286647898386]
本稿では,顔認識のためのフェデレーション学習に取り組むためのフレームワークであるFedGCを紹介する。
我々は,FedGCが標準ソフトマックスと同様の損失関数を構成することを示す。
論文 参考訳(メタデータ) (2021-12-14T09:19:29Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - FedBoosting: Federated Learning with Gradient Protected Boosting for
Text Recognition [7.988454173034258]
フェデレートラーニング(FL)フレームワークは、データの集中化やデータオーナ間の共有なしに、共有モデルを協調的に学習することを可能にする。
本稿では,非独立性および非独立性分散(Non-IID)データに基づくジョイントモデルの一般化能力について述べる。
本稿では,FLの一般化と勾配リーク問題に対処する新しいブースティングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-14T18:47:23Z) - Inverting Gradients -- How easy is it to break privacy in federated
learning? [13.632998588216523]
連合学習は、サーバー上のニューラルネットワークを協調的に訓練するように設計されている。
各ユーザはネットワークの現在の重みを受信し、ローカルデータに基づいてパラメータ更新(勾配)を送信します。
以前の攻撃は、選択された設定でのみ成功することによって、セキュリティの誤った感覚をもたらした。
パラメータ勾配の知識から高分解能で画像を忠実に再構成することは実際に可能であることを示す。
論文 参考訳(メタデータ) (2020-03-31T09:35:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。