論文の概要: Towards General Deep Leakage in Federated Learning
- arxiv url: http://arxiv.org/abs/2110.09074v1
- Date: Mon, 18 Oct 2021 07:49:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-20 04:48:01.632350
- Title: Towards General Deep Leakage in Federated Learning
- Title(参考訳): 連合学習における全般的深部リークに向けて
- Authors: Jiahui Geng, Yongli Mou, Feifei Li, Qing Li, Oya Beyan, Stefan Decker,
Chunming Rong
- Abstract要約: フェデレートラーニング(FL)は、ユーザのプライバシーを保護するために、ローカルデータではなくローカルモデルを共有し、集約することで、グローバルモデルのパフォーマンスを向上させる。
いくつかの研究では、アタッカーが共有勾配情報に基づいてプライベートデータを復元できることが示されている。
本稿では,FedSGDとFedAvgの利用シナリオに応じて,共有勾配や重みからトレーニングデータを再構築する手法を提案する。
- 参考スコア(独自算出の注目度): 13.643899029738474
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unlike traditional central training, federated learning (FL) improves the
performance of the global model by sharing and aggregating local models rather
than local data to protect the users' privacy. Although this training approach
appears secure, some research has demonstrated that an attacker can still
recover private data based on the shared gradient information. This on-the-fly
reconstruction attack deserves to be studied in depth because it can occur at
any stage of training, whether at the beginning or at the end of model
training; no relevant dataset is required and no additional models need to be
trained. We break through some unrealistic assumptions and limitations to apply
this reconstruction attack in a broader range of scenarios. We propose methods
that can reconstruct the training data from shared gradients or weights,
corresponding to the FedSGD and FedAvg usage scenarios, respectively. We
propose a zero-shot approach to restore labels even if there are duplicate
labels in the batch. We study the relationship between the label and image
restoration. We find that image restoration fails even if there is only one
incorrectly inferred label in the batch; we also find that when batch images
have the same label, the corresponding image is restored as a fusion of that
class of images. Our approaches are evaluated on classic image benchmarks,
including CIFAR-10 and ImageNet. The batch size, image quality, and the
adaptability of the label distribution of our approach exceed those of
GradInversion, the state-of-the-art.
- Abstract(参考訳): 従来の中央トレーニングとは異なり、フェデレーション学習(fl)は、ユーザのプライバシを保護するためにローカルデータではなく、ローカルモデルを共有して集約することで、グローバルモデルのパフォーマンスを向上させる。
このトレーニングアプローチは安全に見えるが、ある研究では、攻撃者が共有勾配情報に基づいてプライベートデータを復元できることが示されている。
このオンザフライの再構築攻撃は、モデルトレーニングの開始時でも終了時でも、トレーニングのどの段階でも起こり得るため、深く研究されるべきである。
我々は、このレコンストラクション攻撃を幅広いシナリオに適用するための非現実的な仮定と制限を突破する。
本研究では,feedsgd と fedavg の使用シナリオに対応して,共有勾配や重み付けからトレーニングデータを再構成する手法を提案する。
バッチ内に重複ラベルがあってもラベルを復元するゼロショット手法を提案する。
ラベルと画像復元の関係について検討する。
また,バッチ画像が同一のラベルを持つ場合,その画像の融合として対応する画像が復元されることも確認した。
CIFAR-10 や ImageNet など,従来の画像ベンチマークによるアプローチの評価を行った。
バッチサイズ、画像品質、および我々のアプローチのラベル分布の適応性は、最先端のgradinversionのそれを超える。
関連論文リスト
- Review Learning: Advancing All-in-One Ultra-High-Definition Image Restoration Training Method [7.487270862599671]
本稿では,bfReview Learning という一般画像復元モデルの学習パラダイムを提案する。
このアプローチは、いくつかの劣化したデータセット上のイメージ復元モデルのシーケンシャルなトレーニングと、レビューメカニズムの組み合わせから始まります。
コンシューマグレードのGPU上で4K解像度で画像の劣化を効率的に推論できる軽量な全目的画像復元ネットワークを設計する。
論文 参考訳(メタデータ) (2024-08-13T08:08:45Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Data Attribution for Text-to-Image Models by Unlearning Synthesized Images [71.23012718682634]
テキスト・ツー・イメージ・モデルにおけるデータ帰属の目標は、新しい画像の生成に最も影響を与えるトレーニング画像を特定することである。
本稿では,高能率画像の同定を効果的に行う新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T17:59:44Z) - AFGI: Towards Accurate and Fast-convergent Gradient Inversion Attack in Federated Learning [13.104809524506132]
フェデレートラーニング(FL)は、ユーザのモデル勾配のみを公開することによって、モデルトレーニングにおけるプライバシ保護を強化する。
しかし,FL利用者は,地上訓練データを再構築できる勾配反転攻撃(GIA)の影響を受けやすい。
本稿では,AFGIと呼ばれる,高精度かつ高速な逆変換アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-13T09:48:04Z) - MGIC: A Multi-Label Gradient Inversion Attack based on Canny Edge
Detection on Federated Learning [6.721419921063687]
本稿では,多ラベルデータセットと単一ラベルデータセットの両方において,キャニーエッジ検出(MGIC)に基づく新たな勾配インバージョン戦略を提案する。
提案手法は、最も広く使われているものよりも視覚的逆画像結果の方が優れており、ImageNetデータセットの78%以上の時間的コストを節約できる。
論文 参考訳(メタデータ) (2024-03-13T06:34:49Z) - Towards Eliminating Hard Label Constraints in Gradient Inversion Attacks [88.12362924175741]
グラディエント・インバージョン・アタックは、フェデレート学習フレームワークで公開された中間勾配から局所的なトレーニングデータを再構築することを目的としている。
以前のメソッドは、単一のデータポイントの再構築から始まり、単一イメージの制限をバッチレベルに緩和することから始まり、ハードラベルの制約の下でのみテストされる。
単入力勾配から最後の完全連結層の入力特徴と地下構造ラベルを同時に復元する新しいアルゴリズムを最初に開始する。
論文 参考訳(メタデータ) (2024-02-05T15:51:34Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - More Photos are All You Need: Semi-Supervised Learning for Fine-Grained
Sketch Based Image Retrieval [112.1756171062067]
クロスモーダル検索のための新しい半監視フレームワークについて紹介する。
私たちの設計の中心には、連続したフォトツースケッチ生成モデルがあります。
また,不適切な生成を誘導する判別器誘導機構も導入する。
論文 参考訳(メタデータ) (2021-03-25T17:27:08Z) - Background Splitting: Finding Rare Classes in a Sea of Background [55.03789745276442]
我々は,少数の稀なカテゴリの画像分類のための,高精度な深層モデルの訓練という現実的な問題に焦点をあてる。
これらのシナリオでは、ほとんどの画像はデータセットの背景カテゴリに属します(データセットの95%は背景です)。
非バランスなデータセットをトレーニングするための標準的な微調整アプローチと最先端アプローチの両方が、この極端な不均衡の存在下で正確な深層モデルを生成していないことを実証する。
論文 参考訳(メタデータ) (2020-08-28T23:05:15Z) - Arbitrary-sized Image Training and Residual Kernel Learning: Towards
Image Fraud Identification [10.47223719403823]
そこで本研究では,原入力尺度の画像の縮小を伴わずにトレーニングを行うフレームワークを提案する。
任意の大きさの画像トレーニング方法は、擬似バッチ勾配勾配に依存する。
学習した残余カーネルとPBGDにより,提案手法は画像不正識別における最先端の結果を達成した。
論文 参考訳(メタデータ) (2020-05-22T07:57:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。