論文の概要: Deep leakage from gradients
- arxiv url: http://arxiv.org/abs/2301.02621v1
- Date: Thu, 15 Dec 2022 08:06:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-15 23:26:39.138332
- Title: Deep leakage from gradients
- Title(参考訳): 勾配からの深い漏れ
- Authors: Yaqiong Mu
- Abstract要約: フェデレートラーニング(FL)モデルは、その高効率性と機密性のために多くの業界で広く利用されている。
一部の研究者は機密性を調査し、トレーニングデータセットを攻撃するアルゴリズムを設計した。
本稿では,勾配特徴量に基づくアルゴリズムを,フェデレート学習モデルに対する攻撃として設計する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the development of artificial intelligence technology, Federated
Learning (FL) model has been widely used in many industries for its high
efficiency and confidentiality. Some researchers have explored its
confidentiality and designed some algorithms to attack training data sets, but
these algorithms all have their own limitations. Therefore, most people still
believe that local machine learning gradient information is safe and reliable.
In this paper, an algorithm based on gradient features is designed to attack
the federated learning model in order to attract more attention to the security
of federated learning systems. In federated learning system, gradient contains
little information compared with the original training data set, but this
project intends to restore the original training image data through gradient
information. Convolutional Neural Network (CNN) has excellent performance in
image processing. Therefore, the federated learning model of this project is
equipped with Convolutional Neural Network structure, and the model is trained
by using image data sets. The algorithm calculates the virtual gradient by
generating virtual image labels. Then the virtual gradient is matched with the
real gradient to restore the original image. This attack algorithm is written
in Python language, uses cat and dog classification Kaggle data sets, and
gradually extends from the full connection layer to the convolution layer, thus
improving the universality. At present, the average squared error between the
data recovered by this algorithm and the original image information is
approximately 5, and the vast majority of images can be completely restored
according to the gradient information given, indicating that the gradient of
federated learning system is not absolutely safe and reliable.
- Abstract(参考訳): 人工知能技術の発展に伴い、フェデレートラーニング(FL)モデルは、その高効率性と機密性のために多くの産業で広く利用されている。
一部の研究者は機密性を探求し、トレーニングデータセットを攻撃するアルゴリズムを設計しているが、これらのアルゴリズムには独自の制限がある。
したがって、ほとんどの人は、ローカルな機械学習勾配情報は安全で信頼性が高いと信じている。
本稿では,階層化機能に基づくアルゴリズムを,フェデレーション学習システムのセキュリティにより多くの注意を惹きつけるために,フェデレーション学習モデルに対する攻撃として設計する。
フェデレーション学習システムでは、勾配は、元のトレーニングデータセットに比べて情報が少ないが、本プロジェクトは、勾配情報を用いて元のトレーニング画像データを復元することを目的としている。
畳み込みニューラルネットワーク(CNN)は画像処理において優れた性能を有する。
したがって、このプロジェクトのフェデレーション学習モデルは畳み込みニューラルネットワーク構造を備えており、そのモデルは画像データセットを用いて訓練される。
アルゴリズムは仮想画像ラベルを生成して仮想勾配を算出する。
そして、仮想勾配を実際の勾配と一致させて元の画像を復元する。
この攻撃アルゴリズムはPython言語で記述され、猫と犬の分類であるKaggleデータセットを使用し、完全な接続層から畳み込み層へと徐々に拡張され、普遍性が改善される。
現在、このアルゴリズムにより検索されたデータと元の画像情報の平均二乗誤差は約5であり、この勾配情報に基づいて画像の大部分を完全復元することが可能であり、連合学習システムの勾配が絶対安全で信頼性がないことを示す。
関連論文リスト
- Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Genetic Programming-Based Evolutionary Deep Learning for Data-Efficient
Image Classification [3.9310727060473476]
本稿では,データ効率のよい画像分類のための遺伝的プログラミングに基づく進化的深層学習手法を提案する。
この新しいアプローチは、画像領域と分類領域の両方から多くの重要な演算子を使用して、変数長モデルを自動的に進化させることができる。
フレキシブルな多層表現により、新しいアプローチは、タスクごとに浅いモデルや深いモデルやツリーを自動的に構築できる。
論文 参考訳(メタデータ) (2022-09-27T08:10:16Z) - A Perturbation Resistant Transformation and Classification System for
Deep Neural Networks [0.685316573653194]
深層畳み込みニューラルネットワークは、さまざまな自然画像の正確な分類を行うが、設計時には容易に認識できる。
本稿では,攻撃的かつ容易に推定できないマルチプロハングトレーニング,非バウンド入力変換,画像アンサンブルシステムを設計する。
論文 参考訳(メタデータ) (2022-08-25T02:58:47Z) - Is Deep Image Prior in Need of a Good Education? [57.3399060347311]
画像再構成に有効な先行画像として, 奥行き画像が導入された。
その印象的な再建性にもかかわらず、学習技術や伝統的な再建技術と比べてアプローチは遅い。
計算課題に対処する2段階の学習パラダイムを開発する。
論文 参考訳(メタデータ) (2021-11-23T15:08:26Z) - Understanding Training-Data Leakage from Gradients in Neural Networks
for Image Classification [11.272188531829016]
多くのアプリケーションでは、IPやプライバシの懸念からトレーニングデータが漏洩することを防ぐために、トレーニングデータを保護する必要があります。
近年の研究では、アーキテクチャが分かっていれば、画像分類モデルの勾配からトレーニングデータを再構築できることが示されている。
我々は各層に対して反復的に最適化問題を解くものとして、データ再構成のトレーニング問題を定式化する。
私たちは、ディープネットワーク内のトレーニングデータの潜在的漏洩を、そのアーキテクチャに関連付けることができます。
論文 参考訳(メタデータ) (2021-11-19T12:14:43Z) - GRNN: Generative Regression Neural Network -- A Data Leakage Attack for
Federated Learning [3.050919759387984]
画像ベースのプライバシデータは,提案されたGenerative Regression Neural Network (GRNN) によってのみ,共有グラデーションから簡単に回復できることを示した。
本手法は複数の画像分類タスクで評価する。
その結果,提案したGRNNは,安定性,強度,精度を向上し,最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-05-02T18:39:37Z) - See through Gradients: Image Batch Recovery via GradInversion [103.26922860665039]
我々は、より大きなバッチからの入力イメージをResNets(50層)のような大規模ネットワークでも復元できるGradInversionを紹介した。
複雑なデータセット、ディープネットワーク、大規模なバッチサイズであっても、GradInversionを通じて、個々のイメージを高い忠実度で復元できるような、驚くほど大量の情報をエンコードする勾配を示す。
論文 参考訳(メタデータ) (2021-04-15T16:43:17Z) - Incremental Learning via Rate Reduction [26.323357617265163]
現在のディープラーニングアーキテクチャは、破滅的な忘れ込みに悩まされており、新しいクラスで漸進的にトレーニングされた時に、以前に学習したクラスの知識を保持することができません。
本稿では,ネットワークの各層をバック伝搬なしで明示的に計算する,レート低減の原理から導かれる代替の「ホワイトボックス」アーキテクチャを提案する。
このパラダイムの下では、事前訓練されたネットワークと新しいデータクラスが与えられた場合、我々のアプローチは、すべての過去のクラスと新しいクラスとの共同トレーニングをエミュレートする新しいネットワークを構築することができることを示す。
論文 参考訳(メタデータ) (2020-11-30T07:23:55Z) - An Empirical Study of the Collapsing Problem in Semi-Supervised 2D Human
Pose Estimation [80.02124918255059]
半教師付き学習は、ラベルなし画像の探索によってモデルの精度を高めることを目的としている。
私たちは相互に教え合うために2つのネットワークを学びます。
各ネットワーク内の容易なイメージに関するより信頼性の高い予測は、他のネットワークに対応するハードイメージについて学ぶように教えるために使用される。
論文 参考訳(メタデータ) (2020-11-25T03:29:52Z) - Boosting Gradient for White-Box Adversarial Attacks [60.422511092730026]
そこで本研究では,ADV-ReLUと呼ばれる,勾配に基づくホワイトボックス攻撃アルゴリズムの性能向上を目的とした,汎用的な逆例生成手法を提案する。
提案手法では,損失関数とネットワーク入力の勾配を算出し,その値をスコアにマップし,その一部を選択して誤導勾配を更新する。
論文 参考訳(メタデータ) (2020-10-21T02:13:26Z) - Syn2Real Transfer Learning for Image Deraining using Gaussian Processes [92.15895515035795]
CNNに基づく画像デライニング手法は,再現誤差や視覚的品質の点で優れた性能を発揮している。
実世界の完全ラベル付き画像デライニングデータセットを取得する上での課題により、既存の手法は合成されたデータのみに基づいて訓練される。
本稿では,ガウス過程に基づく半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T00:33:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。