論文の概要: R-GAP: Recursive Gradient Attack on Privacy
- arxiv url: http://arxiv.org/abs/2010.07733v3
- Date: Tue, 16 Mar 2021 11:16:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 03:07:09.198061
- Title: R-GAP: Recursive Gradient Attack on Privacy
- Title(参考訳): R-GAP: プライバシーに対する再帰的なグラディエント攻撃
- Authors: Junyi Zhu and Matthew Blaschko
- Abstract要約: フェデレートラーニング(Federated Learning)は、プライバシの要求と、分散データの大規模なコレクションから学ぶという約束の間のジレンマを打破する、有望なアプローチである。
ディープニューラルネットワークの勾配からデータを復元するクローズドフォーム再帰法を提案する。
また,特定のネットワークアーキテクチャに固有の勾配攻撃のリスクを推定するランク解析手法を提案する。
- 参考スコア(独自算出の注目度): 5.687523225718642
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning frameworks have been regarded as a promising approach to
break the dilemma between demands on privacy and the promise of learning from
large collections of distributed data. Many such frameworks only ask
collaborators to share their local update of a common model, i.e. gradients
with respect to locally stored data, instead of exposing their raw data to
other collaborators. However, recent optimization-based gradient attacks show
that raw data can often be accurately recovered from gradients. It has been
shown that minimizing the Euclidean distance between true gradients and those
calculated from estimated data is often effective in fully recovering private
data. However, there is a fundamental lack of theoretical understanding of how
and when gradients can lead to unique recovery of original data. Our research
fills this gap by providing a closed-form recursive procedure to recover data
from gradients in deep neural networks. We name it Recursive Gradient Attack on
Privacy (R-GAP). Experimental results demonstrate that R-GAP works as well as
or even better than optimization-based approaches at a fraction of the
computation under certain conditions. Additionally, we propose a Rank Analysis
method, which can be used to estimate the risk of gradient attacks inherent in
certain network architectures, regardless of whether an optimization-based or
closed-form-recursive attack is used. Experimental results demonstrate the
utility of the rank analysis towards improving the network's security. Source
code is available for download from https://github.com/JunyiZhu-AI/R-GAP.
- Abstract(参考訳): フェデレートされた学習フレームワークは、プライバシの要求と大量の分散データから学ぶという約束の間のジレンマを打破する有望なアプローチとみなされている。
このようなフレームワークの多くは、他のコラボレータに生データを公開するのではなく、ローカルに保存されたデータに関する勾配など、共通のモデルのローカルアップデートを共有するように、コラボレータに要求するだけです。
しかし、最近の最適化に基づく勾配攻撃は、しばしば勾配から生データを正確に回収できることを示している。
真の勾配と推定データとのユークリッド距離を最小化することは、しばしばプライベートデータの完全回復に有効であることが示されている。
しかし、勾配がいかにしていつ元のデータのユニークな回復につながるかという理論的理解の根本的な欠如がある。
我々の研究は、ディープニューラルネットワークの勾配からデータを復元するクローズドフォーム再帰手順を提供することで、このギャップを埋める。
R-GAP (Recursive Gradient Attack on Privacy) と呼ぶ。
実験の結果、R-GAPは特定の条件下での計算のごく一部において最適化に基づくアプローチよりもうまく機能することが示された。
さらに,最適化ベースかクローズドフォーム再帰攻撃かに関わらず,特定のネットワークアーキテクチャに固有の勾配攻撃のリスクを推定するために,ランク解析手法を提案する。
実験により,ネットワークのセキュリティ向上に向けたランク解析の有用性が示された。
ソースコードはhttps://github.com/JunyiZhu-AI/R-GAPからダウンロードできる。
関連論文リスト
- QBI: Quantile-Based Bias Initialization for Efficient Private Data Reconstruction in Federated Learning [0.5497663232622965]
フェデレーション学習は、ユーザのプライバシを損なうことなく、分散データ上で機械学習モデルのトレーニングを可能にする。
近年の研究では、中央のエンティティが共有モデル更新からプライベートデータを完全に再構築できることが示されている。
論文 参考訳(メタデータ) (2024-06-26T20:19:32Z) - R-CONV: An Analytical Approach for Efficient Data Reconstruction via Convolutional Gradients [40.209183669098735]
本稿では,畳み込み層の勾配を効率的に利用するための高度なデータ漏洩手法を提案する。
我々の知る限りでは、これは勾配から直接畳み込み層の入力を再構築する最初の分析手法である。
論文 参考訳(メタデータ) (2024-06-06T16:28:04Z) - Rethinking PGD Attack: Is Sign Function Necessary? [131.6894310945647]
本稿では,このような手話に基づく更新アルゴリズムが段階的攻撃性能にどのように影響するかを理論的に分析する。
本稿では,手話の使用を排除したRGDアルゴリズムを提案する。
提案したRGDアルゴリズムの有効性は実験で広く実証されている。
論文 参考訳(メタデータ) (2023-12-03T02:26:58Z) - Sample Complexity of Preference-Based Nonparametric Off-Policy
Evaluation with Deep Networks [58.469818546042696]
我々は、OPEのサンプル効率を人間の好みで研究し、その統計的保証を確立する。
ReLUネットワークのサイズを適切に選択することにより、マルコフ決定過程において任意の低次元多様体構造を活用できることが示される。
論文 参考訳(メタデータ) (2023-10-16T16:27:06Z) - GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - Temporal Gradient Inversion Attacks with Robust Optimization [18.166835997248658]
フェデレートラーニング(FL)は、プライベートデータを共有せずに協調的なモデルトレーニングのための有望なアプローチとして登場した。
グラディエント・インバージョン・アタック(GIA)は、交換された勾配からローカルクライアントが保持するプライベートデータを再構築するために提案されている。
プライベートデータを復元する一方で、データ次元とモデルの複雑さが増加し、GAAによるデータの再構築が妨げられる。
複数の時間勾配を利用して、事前の知識なしにプライベートデータを復元するTGIAs-ROを提案する。
論文 参考訳(メタデータ) (2023-06-13T16:21:34Z) - Scaling Forward Gradient With Local Losses [117.22685584919756]
フォワード学習は、ディープニューラルネットワークを学ぶためのバックプロップに代わる生物学的に妥当な代替手段である。
重みよりも活性化に摂動を適用することにより、前方勾配のばらつきを著しく低減できることを示す。
提案手法はMNIST と CIFAR-10 のバックプロップと一致し,ImageNet 上で提案したバックプロップフリーアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-10-07T03:52:27Z) - Enhancing Privacy against Inversion Attacks in Federated Learning by
using Mixing Gradients Strategies [0.31498833540989407]
フェデレーション学習は情報漏洩のリスクを低減するが、攻撃に対して脆弱である。
いくつかのニューラルネットワーク設計決定が、勾配逆攻撃に対してどのように防御できるかを示す。
これらの戦略は、画像認識のためのLeNETのような深層畳み込みニューラルネットワークにも有用である。
論文 参考訳(メタデータ) (2022-04-26T12:08:28Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - GRNN: Generative Regression Neural Network -- A Data Leakage Attack for
Federated Learning [3.050919759387984]
画像ベースのプライバシデータは,提案されたGenerative Regression Neural Network (GRNN) によってのみ,共有グラデーションから簡単に回復できることを示した。
本手法は複数の画像分類タスクで評価する。
その結果,提案したGRNNは,安定性,強度,精度を向上し,最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-05-02T18:39:37Z) - Understanding Gradient Clipping in Private SGD: A Geometric Perspective [68.61254575987013]
ディープラーニングモデルは、トレーニングデータが機密情報を含む可能性がある多くの機械学習アプリケーションで、ますます人気が高まっている。
多くの学習システムは、(異なる)プライベートSGDでモデルをトレーニングすることで、差分プライバシーを取り入れている。
各プライベートSGDアップデートにおける重要なステップは勾配クリッピングであり、L2ノルムがしきい値を超えると、個々の例の勾配を小さくする。
論文 参考訳(メタデータ) (2020-06-27T19:08:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。