論文の概要: Towards General Deep Leakage in Federated Learning
- arxiv url: http://arxiv.org/abs/2110.09074v1
- Date: Mon, 18 Oct 2021 07:49:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-20 04:48:01.632350
- Title: Towards General Deep Leakage in Federated Learning
- Title(参考訳): 連合学習における全般的深部リークに向けて
- Authors: Jiahui Geng, Yongli Mou, Feifei Li, Qing Li, Oya Beyan, Stefan Decker,
Chunming Rong
- Abstract要約: フェデレートラーニング(FL)は、ユーザのプライバシーを保護するために、ローカルデータではなくローカルモデルを共有し、集約することで、グローバルモデルのパフォーマンスを向上させる。
いくつかの研究では、アタッカーが共有勾配情報に基づいてプライベートデータを復元できることが示されている。
本稿では,FedSGDとFedAvgの利用シナリオに応じて,共有勾配や重みからトレーニングデータを再構築する手法を提案する。
- 参考スコア(独自算出の注目度): 13.643899029738474
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unlike traditional central training, federated learning (FL) improves the
performance of the global model by sharing and aggregating local models rather
than local data to protect the users' privacy. Although this training approach
appears secure, some research has demonstrated that an attacker can still
recover private data based on the shared gradient information. This on-the-fly
reconstruction attack deserves to be studied in depth because it can occur at
any stage of training, whether at the beginning or at the end of model
training; no relevant dataset is required and no additional models need to be
trained. We break through some unrealistic assumptions and limitations to apply
this reconstruction attack in a broader range of scenarios. We propose methods
that can reconstruct the training data from shared gradients or weights,
corresponding to the FedSGD and FedAvg usage scenarios, respectively. We
propose a zero-shot approach to restore labels even if there are duplicate
labels in the batch. We study the relationship between the label and image
restoration. We find that image restoration fails even if there is only one
incorrectly inferred label in the batch; we also find that when batch images
have the same label, the corresponding image is restored as a fusion of that
class of images. Our approaches are evaluated on classic image benchmarks,
including CIFAR-10 and ImageNet. The batch size, image quality, and the
adaptability of the label distribution of our approach exceed those of
GradInversion, the state-of-the-art.
- Abstract(参考訳): 従来の中央トレーニングとは異なり、フェデレーション学習(fl)は、ユーザのプライバシを保護するためにローカルデータではなく、ローカルモデルを共有して集約することで、グローバルモデルのパフォーマンスを向上させる。
このトレーニングアプローチは安全に見えるが、ある研究では、攻撃者が共有勾配情報に基づいてプライベートデータを復元できることが示されている。
このオンザフライの再構築攻撃は、モデルトレーニングの開始時でも終了時でも、トレーニングのどの段階でも起こり得るため、深く研究されるべきである。
我々は、このレコンストラクション攻撃を幅広いシナリオに適用するための非現実的な仮定と制限を突破する。
本研究では,feedsgd と fedavg の使用シナリオに対応して,共有勾配や重み付けからトレーニングデータを再構成する手法を提案する。
バッチ内に重複ラベルがあってもラベルを復元するゼロショット手法を提案する。
ラベルと画像復元の関係について検討する。
また,バッチ画像が同一のラベルを持つ場合,その画像の融合として対応する画像が復元されることも確認した。
CIFAR-10 や ImageNet など,従来の画像ベンチマークによるアプローチの評価を行った。
バッチサイズ、画像品質、および我々のアプローチのラベル分布の適応性は、最先端のgradinversionのそれを超える。
関連論文リスト
- MGIC: A Multi-Label Gradient Inversion Attack based on Canny Edge
Detection on Federated Learning [6.721419921063687]
本稿では,多ラベルデータセットと単一ラベルデータセットの両方において,キャニーエッジ検出(MGIC)に基づく新たな勾配インバージョン戦略を提案する。
提案手法は、最も広く使われているものよりも視覚的逆画像結果の方が優れており、ImageNetデータセットの78%以上の時間的コストを節約できる。
論文 参考訳(メタデータ) (2024-03-13T06:34:49Z) - Towards Eliminating Hard Label Constraints in Gradient Inversion Attacks [99.0421279696513]
グラディエント・インバージョン・アタックは、フェデレート学習フレームワークで公開された中間勾配から局所的なトレーニングデータを再構築することを目的としている。
以前のメソッドは、単一のデータポイントの再構築から始まり、単一イメージの制限をバッチレベルに緩和することから始まり、ハードラベルの制約の下でのみテストされる。
単入力勾配から最後の完全連結層の入力特徴と地下構造ラベルを同時に復元する新しいアルゴリズムを最初に開始する。
論文 参考訳(メタデータ) (2024-02-05T15:51:34Z) - Peer is Your Pillar: A Data-unbalanced Conditional GANs for Few-shot
Image Generation [24.698516678703236]
少ない撮影画像生成は、少数の訓練画像を用いて生成モデルを訓練することを目的としている。
我々はPier is your Pillar(PIP)と呼ばれる新しいパイプラインを提案し、ターゲットとする数ショットデータセットとピアデータセットを組み合わせて、データ不均衡な条件生成を生成する。
論文 参考訳(メタデータ) (2023-11-14T14:55:42Z) - Semantic keypoint-based pose estimation from single RGB frames [64.80395521735463]
一つのRGB画像からオブジェクトの連続6-DoFポーズを推定する手法を提案する。
このアプローチは、畳み込みネットワーク(convnet)によって予測されるセマンティックキーポイントと、変形可能な形状モデルを組み合わせる。
提案手法は,インスタンスベースのシナリオとクラスベースのシナリオの両方に対して,6-DoFオブジェクトのポーズを正確に復元できることを示す。
論文 参考訳(メタデータ) (2022-04-12T15:03:51Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - More Photos are All You Need: Semi-Supervised Learning for Fine-Grained
Sketch Based Image Retrieval [112.1756171062067]
クロスモーダル検索のための新しい半監視フレームワークについて紹介する。
私たちの設計の中心には、連続したフォトツースケッチ生成モデルがあります。
また,不適切な生成を誘導する判別器誘導機構も導入する。
論文 参考訳(メタデータ) (2021-03-25T17:27:08Z) - An Empirical Study of the Collapsing Problem in Semi-Supervised 2D Human
Pose Estimation [80.02124918255059]
半教師付き学習は、ラベルなし画像の探索によってモデルの精度を高めることを目的としている。
私たちは相互に教え合うために2つのネットワークを学びます。
各ネットワーク内の容易なイメージに関するより信頼性の高い予測は、他のネットワークに対応するハードイメージについて学ぶように教えるために使用される。
論文 参考訳(メタデータ) (2020-11-25T03:29:52Z) - Background Splitting: Finding Rare Classes in a Sea of Background [55.03789745276442]
我々は,少数の稀なカテゴリの画像分類のための,高精度な深層モデルの訓練という現実的な問題に焦点をあてる。
これらのシナリオでは、ほとんどの画像はデータセットの背景カテゴリに属します(データセットの95%は背景です)。
非バランスなデータセットをトレーニングするための標準的な微調整アプローチと最先端アプローチの両方が、この極端な不均衡の存在下で正確な深層モデルを生成していないことを実証する。
論文 参考訳(メタデータ) (2020-08-28T23:05:15Z) - Arbitrary-sized Image Training and Residual Kernel Learning: Towards
Image Fraud Identification [10.47223719403823]
そこで本研究では,原入力尺度の画像の縮小を伴わずにトレーニングを行うフレームワークを提案する。
任意の大きさの画像トレーニング方法は、擬似バッチ勾配勾配に依存する。
学習した残余カーネルとPBGDにより,提案手法は画像不正識別における最先端の結果を達成した。
論文 参考訳(メタデータ) (2020-05-22T07:57:24Z) - Continual Local Replacement for Few-shot Learning [13.956960291580938]
少数ショット学習の目標は,1つないし少数のトレーニングデータに基づいて,新しいクラスを認識可能なモデルを学習することにある。
1)新しいクラスの優れた特徴表現が欠けていること、(2)ラベル付きデータの一部が真のデータ分布を正確に表現できないこと、である。
データ不足問題に対処するために,新たな局所的置換戦略を提案する。
論文 参考訳(メタデータ) (2020-01-23T04:26:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。