論文の概要: Inverting Gradients -- How easy is it to break privacy in federated
learning?
- arxiv url: http://arxiv.org/abs/2003.14053v2
- Date: Fri, 11 Sep 2020 11:41:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 00:49:41.878242
- Title: Inverting Gradients -- How easy is it to break privacy in federated
learning?
- Title(参考訳): 逆勾配 -- 連合学習におけるプライバシの破壊はどの程度簡単か?
- Authors: Jonas Geiping, Hartmut Bauermeister, Hannah Dr\"oge, Michael Moeller
- Abstract要約: 連合学習は、サーバー上のニューラルネットワークを協調的に訓練するように設計されている。
各ユーザはネットワークの現在の重みを受信し、ローカルデータに基づいてパラメータ更新(勾配)を送信します。
以前の攻撃は、選択された設定でのみ成功することによって、セキュリティの誤った感覚をもたらした。
パラメータ勾配の知識から高分解能で画像を忠実に再構成することは実際に可能であることを示す。
- 参考スコア(独自算出の注目度): 13.632998588216523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The idea of federated learning is to collaboratively train a neural network
on a server. Each user receives the current weights of the network and in turns
sends parameter updates (gradients) based on local data. This protocol has been
designed not only to train neural networks data-efficiently, but also to
provide privacy benefits for users, as their input data remains on device and
only parameter gradients are shared. But how secure is sharing parameter
gradients? Previous attacks have provided a false sense of security, by
succeeding only in contrived settings - even for a single image. However, by
exploiting a magnitude-invariant loss along with optimization strategies based
on adversarial attacks, we show that is is actually possible to faithfully
reconstruct images at high resolution from the knowledge of their parameter
gradients, and demonstrate that such a break of privacy is possible even for
trained deep networks. We analyze the effects of architecture as well as
parameters on the difficulty of reconstructing an input image and prove that
any input to a fully connected layer can be reconstructed analytically
independent of the remaining architecture. Finally we discuss settings
encountered in practice and show that even averaging gradients over several
iterations or several images does not protect the user's privacy in federated
learning applications in computer vision.
- Abstract(参考訳): 連合学習の考え方は、サーバ上でニューラルネットワークを協調的にトレーニングすることだ。
各ユーザはネットワークの現在の重みを受信し、ローカルデータに基づいてパラメータ更新(勾配)を送信します。
このプロトコルは、ニューラルネットワークをデータ効率でトレーニングするだけでなく、入力データがデバイス上に留まり、パラメータ勾配のみが共有されるため、ユーザにプライバシー上のメリットを提供するように設計されている。
しかし、パラメータ勾配の共有はどの程度安全か?
以前の攻撃は、単一の画像であっても、検索された設定でのみ成功することで、誤ったセキュリティ感覚を与えてきた。
しかし,敵の攻撃に基づく最適化戦略とともにマグニチュード不変損失を利用することにより,パラメータ勾配の知識から高分解能で画像を忠実に再構成することが可能であり,訓練されたディープネットワークにおいてもそのようなプライバシの破壊が可能であることを示す。
入力画像の再構成が困難である場合のアーキテクチャおよびパラメータの影響を解析し、完全連結層への入力が残りのアーキテクチャとは独立に解析的に再構成可能であることを証明する。
最後に、実際に遭遇した設定について議論し、コンピュータビジョンにおけるフェデレーション学習アプリケーションにおけるユーザのプライバシを保護していないことを示します。
関連論文リスト
- Federated Learning Nodes Can Reconstruct Peers' Image Data [27.92271597111756]
Federated Learning(FL)は、複数のノードがローカルデータ上でモデルをトレーニングできるようにする、プライバシ保護機械学習フレームワークである。
以前の研究によると、FLの勾配共有ステップは、正直だが正確な中央サーバーからのデータ再構成攻撃に弱い可能性がある。
正直なノード/クライアントは、集中型システムでピアのイメージデータを再構築する攻撃を起動し、深刻なプライバシーリスクを生じさせることを示す。
論文 参考訳(メタデータ) (2024-10-07T00:18:35Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - MGIC: A Multi-Label Gradient Inversion Attack based on Canny Edge
Detection on Federated Learning [6.721419921063687]
本稿では,多ラベルデータセットと単一ラベルデータセットの両方において,キャニーエッジ検出(MGIC)に基づく新たな勾配インバージョン戦略を提案する。
提案手法は、最も広く使われているものよりも視覚的逆画像結果の方が優れており、ImageNetデータセットの78%以上の時間的コストを節約できる。
論文 参考訳(メタデータ) (2024-03-13T06:34:49Z) - Understanding Deep Gradient Leakage via Inversion Influence Functions [53.1839233598743]
Deep Gradient Leakage (DGL)は、勾配ベクトルからプライベートトレーニングイメージを復元する非常に効果的な攻撃である。
得られた画像とプライベート勾配との間の閉形式接続を確立する新しいインバージョンインフルエンス関数(I$2$F)を提案する。
I$2$Fは、一般的に異なるモデルアーキテクチャ、データセット、アタック実装、摂動に基づく防御に基づいてDGLを効果的に近似したことを実証的に実証した。
論文 参考訳(メタデータ) (2023-09-22T17:26:24Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Understanding Reconstruction Attacks with the Neural Tangent Kernel and
Dataset Distillation [110.61853418925219]
我々は、データセット再構築攻撃のより強力なバージョンを構築し、無限の幅で設定されたエンペントリアルトレーニングを確実に回復する方法を示す。
理論的にも経験的にも再構成された画像は、データセットの「外部」に傾向を示す。
これらのリコンストラクション攻撃は, テクストデータセット蒸留において, 再構成画像上で再トレーニングを行い, 高い予測精度を得ることができる。
論文 参考訳(メタデータ) (2023-02-02T21:41:59Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Gradient Obfuscation Gives a False Sense of Security in Federated
Learning [41.36621813381792]
フェデレート学習における画像分類課題を対象とした新しいデータ再構成攻撃フレームワークを提案する。
従来の研究とは対照的に、プライバシー強化は勾配圧縮の副産物として扱われるべきではない。
論文 参考訳(メタデータ) (2022-06-08T13:01:09Z) - Enhancing Privacy against Inversion Attacks in Federated Learning by
using Mixing Gradients Strategies [0.31498833540989407]
フェデレーション学習は情報漏洩のリスクを低減するが、攻撃に対して脆弱である。
いくつかのニューラルネットワーク設計決定が、勾配逆攻撃に対してどのように防御できるかを示す。
これらの戦略は、画像認識のためのLeNETのような深層畳み込みニューラルネットワークにも有用である。
論文 参考訳(メタデータ) (2022-04-26T12:08:28Z) - GRNN: Generative Regression Neural Network -- A Data Leakage Attack for
Federated Learning [3.050919759387984]
画像ベースのプライバシデータは,提案されたGenerative Regression Neural Network (GRNN) によってのみ,共有グラデーションから簡単に回復できることを示した。
本手法は複数の画像分類タスクで評価する。
その結果,提案したGRNNは,安定性,強度,精度を向上し,最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-05-02T18:39:37Z) - See through Gradients: Image Batch Recovery via GradInversion [103.26922860665039]
我々は、より大きなバッチからの入力イメージをResNets(50層)のような大規模ネットワークでも復元できるGradInversionを紹介した。
複雑なデータセット、ディープネットワーク、大規模なバッチサイズであっても、GradInversionを通じて、個々のイメージを高い忠実度で復元できるような、驚くほど大量の情報をエンコードする勾配を示す。
論文 参考訳(メタデータ) (2021-04-15T16:43:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。