論文の概要: GRNN: Generative Regression Neural Network -- A Data Leakage Attack for
Federated Learning
- arxiv url: http://arxiv.org/abs/2105.00529v1
- Date: Sun, 2 May 2021 18:39:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 14:10:09.655215
- Title: GRNN: Generative Regression Neural Network -- A Data Leakage Attack for
Federated Learning
- Title(参考訳): grnn:生成回帰ニューラルネットワーク -- 連合学習のためのデータ漏洩攻撃
- Authors: Hanchi Ren, Jingjing Deng and Xianghua Xie
- Abstract要約: 画像ベースのプライバシデータは,提案されたGenerative Regression Neural Network (GRNN) によってのみ,共有グラデーションから簡単に回復できることを示した。
本手法は複数の画像分類タスクで評価する。
その結果,提案したGRNNは,安定性,強度,精度を向上し,最先端の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 3.050919759387984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data privacy has become an increasingly important issue in machine learning.
Many approaches have been developed to tackle this issue, e.g., cryptography
(Homomorphic Encryption, Differential Privacy, etc.) and collaborative training
(Secure Multi-Party Computation, Distributed Learning and Federated Learning).
These techniques have a particular focus on data encryption or secure local
computation. They transfer the intermediate information to the third-party to
compute the final result. Gradient exchanging is commonly considered to be a
secure way of training a robust model collaboratively in deep learning.
However, recent researches have demonstrated that sensitive information can be
recovered from the shared gradient. Generative Adversarial Networks (GAN), in
particular, have shown to be effective in recovering those information.
However, GAN based techniques require additional information, such as class
labels which are generally unavailable for privacy persevered learning. In this
paper, we show that, in Federated Learning (FL) system, image-based privacy
data can be easily recovered in full from the shared gradient only via our
proposed Generative Regression Neural Network (GRNN). We formulate the attack
to be a regression problem and optimise two branches of the generative model by
minimising the distance between gradients. We evaluate our method on several
image classification tasks. The results illustrate that our proposed GRNN
outperforms state-of-the-art methods with better stability, stronger
robustness, and higher accuracy. It also has no convergence requirement to the
global FL model. Moreover, we demonstrate information leakage using face
re-identification. Some defense strategies are also discussed in this work.
- Abstract(参考訳): データプライバシーは、機械学習においてますます重要になっている。
暗号(正則暗号、微分プライバシーなど)など、この問題に取り組むために多くのアプローチが開発されている。
コラボレーショントレーニング(セキュアなマルチパーティ計算、分散学習、フェデレーション学習)。
これらの技術はデータ暗号化やセキュアな局所計算に特に重点を置いている。
中間情報を第三者に転送して最終結果を計算する。
グラディエント交換は、ディープラーニングにおいて協調的に堅牢なモデルをトレーニングするための安全な方法であると考えられている。
しかし、最近の研究では、共有勾配からセンシティブな情報を回収できることが示されている。
特にGAN(Generative Adversarial Networks)は,これらの情報の回復に有効であることが示されている。
しかし、GANベースの技術は、一般的にプライバシーを守らない学習では利用できないクラスラベルのような追加情報を必要とする。
本稿では,フェデレーション学習(fl)システムにおいて,画像ベースのプライバシデータは,提案する生成型回帰ニューラルネットワーク(grnn)によってのみ,共有勾配から完全に復元可能であることを示す。
回帰問題として攻撃を定式化し、勾配間の距離を最小化し、生成モデルの2つの分岐を最適化する。
本手法は,複数の画像分類タスクで評価する。
その結果,提案したGRNNは安定性,強靭性,高精度で最先端の手法より優れていた。
また、大域的FLモデルへの収束要求も持たない。
さらに,顔再同定による情報漏洩についても述べる。
本研究ではいくつかの防衛戦略についても論じている。
関連論文リスト
- Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - Sequential Graph Neural Networks for Source Code Vulnerability
Identification [5.582101184758527]
我々は,C/C++ソースコードの脆弱性データセットを適切にキュレートし,モデルの開発を支援する。
また,多数のコード意味表現を学習するための連続グラフニューラルネットワーク(SEGNN)という,グラフニューラルネットワークに基づく学習フレームワークを提案する。
グラフ分類設定における2つのデータセットと4つのベースライン手法による評価は、最先端の結果を示している。
論文 参考訳(メタデータ) (2023-05-23T17:25:51Z) - SPIN: Simulated Poisoning and Inversion Network for Federated
Learning-Based 6G Vehicular Networks [9.494669823390648]
車両ネットワークは常にデータプライバシー保護の懸念に直面してきた。
この手法は、モデル逆転とモデル中毒攻撃に対して非常に脆弱である。
本研究では,データ再構成に最適化手法を応用したシミュレート中毒・逆変換ネットワーク(SPIN)を提案する。
論文 参考訳(メタデータ) (2022-11-21T10:07:13Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Enhancing Privacy against Inversion Attacks in Federated Learning by
using Mixing Gradients Strategies [0.31498833540989407]
フェデレーション学習は情報漏洩のリスクを低減するが、攻撃に対して脆弱である。
いくつかのニューラルネットワーク設計決定が、勾配逆攻撃に対してどのように防御できるかを示す。
これらの戦略は、画像認識のためのLeNETのような深層畳み込みニューラルネットワークにも有用である。
論文 参考訳(メタデータ) (2022-04-26T12:08:28Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Unveiling the potential of Graph Neural Networks for robust Intrusion
Detection [2.21481607673149]
本稿では,グラフとして構造化された攻撃の流れパターンを学習するための新しいグラフニューラルネットワーク(GNN)モデルを提案する。
我々のモデルは従来の実験と同等の精度を維持することができる一方、最先端のML技術は敵攻撃下で50%の精度(F1スコア)を低下させる。
論文 参考訳(メタデータ) (2021-07-30T16:56:39Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - GRAFFL: Gradient-free Federated Learning of a Bayesian Generative Model [8.87104231451079]
本稿では、GRAFFLと呼ばれる、最初の勾配のない連邦学習フレームワークを提案する。
参加する各機関から得られた暗黙の情報を用いて、パラメータの後方分布を学習する。
本稿では,GRAFFLに基づくベイズ混合モデルを提案する。
論文 参考訳(メタデータ) (2020-08-29T07:19:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。