論文の概要: AFGI: Towards Accurate and Fast-convergent Gradient Inversion Attack in Federated Learning
- arxiv url: http://arxiv.org/abs/2403.08383v2
- Date: Tue, 30 Jul 2024 09:27:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-31 22:06:02.941214
- Title: AFGI: Towards Accurate and Fast-convergent Gradient Inversion Attack in Federated Learning
- Title(参考訳): AFGI:フェデレートラーニングにおける高精度かつ高速収束型グラディエント・インバージョン・アタックを目指して
- Authors: Can Liu, Jin Wang, and Yipeng Zhou, Yachao Yuan, Quanzheng Sheng, Kejie Lu,
- Abstract要約: フェデレートラーニング(FL)は、ユーザのモデル勾配のみを公開することによって、モデルトレーニングにおけるプライバシ保護を強化する。
しかし,FL利用者は,地上訓練データを再構築できる勾配反転攻撃(GIA)の影響を受けやすい。
本稿では,AFGIと呼ばれる,高精度かつ高速な逆変換アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 13.104809524506132
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) empowers privacypreservation in model training by only exposing users' model gradients. Yet, FL users are susceptible to gradient inversion attacks (GIAs) which can reconstruct ground-truth training data such as images based on model gradients. However, reconstructing high-resolution images by existing GIAs faces two challenges: inferior accuracy and slow-convergence, especially when duplicating labels exist in the training batch. To address these challenges, we present an Accurate and Fast-convergent Gradient Inversion attack algorithm, called AFGI, with two components: Label Recovery Block (LRB) which can accurately restore duplicating labels of private images based on exposed gradients; VME Regularization Term, which includes the total variance of reconstructed images, the discrepancy between three-channel means and edges, between values from exposed gradients and reconstructed images, respectively. The AFGI can be regarded as a white-box attack strategy to reconstruct images by leveraging labels recovered by LRB. In particular, AFGI is efficient that accurately reconstruct ground-truth images when users' training batch size is up to 48. Our experimental results manifest that AFGI can diminish 85% time costs while achieving superb inversion quality in the ImageNet dataset. At last, our study unveils the shortcomings of FL in privacy-preservation, prompting the development of more advanced countermeasure strategies.
- Abstract(参考訳): フェデレートラーニング(FL)は、ユーザのモデル勾配のみを公開することによって、モデルトレーニングにおけるプライバシ保護を強化する。
しかし, FLユーザは, モデル勾配に基づく画像などの地中真実のトレーニングデータを再構成できる, 勾配反転攻撃 (GIA) の影響を受けやすい。
しかし、既存のGIAによる高解像度画像の再構成には、特にラベルの重複がトレーニングバッチに存在する場合、精度の低下と収束の遅さの2つの課題がある。
これらの課題に対処するため、AFGIと呼ばれる高精度かつ高速収束な逆転攻撃アルゴリズムを、露出勾配に基づくプライベート画像の重複ラベルを正確に復元できるラベルリカバリブロック(LRB)と、再構成画像の総分散を含むVME正規化項、露出勾配と再構成画像の値間の3チャンネル平均とエッジの相違という2つのコンポーネントで提示する。
AFGIは、RBBが回収したラベルを活用して画像を再構築するホワイトボックス攻撃戦略と見なすことができる。
特に、AFGIは、ユーザのトレーニングバッチサイズが最大48である場合に、地上の真実像を正確に再構成する効率がよい。
実験結果から,AFGIは85%のコスト削減が可能であり,ImageNetデータセットの超高精度なインバージョン品質を実現することができることがわかった。
最後に、プライバシー保護におけるFLの欠点を明らかにし、より先進的な対策戦略の開発を促した。
関連論文リスト
- Exploring User-level Gradient Inversion with a Diffusion Prior [17.2657358645072]
本稿では,大規模なバッチ設定の回復性を高めるために,デノナイジング拡散モデルを強い画像として適用した新しい勾配反転攻撃を提案する。
個々のサンプルを再構築し,大規模なバッチや画像サイズに苦しむ従来の攻撃とは違って,本手法では,ユーザに対応する機密性の高い共有セマンティック情報をキャプチャする代表画像の復元が目的である。
論文 参考訳(メタデータ) (2024-09-11T14:20:47Z) - MGIC: A Multi-Label Gradient Inversion Attack based on Canny Edge
Detection on Federated Learning [6.721419921063687]
本稿では,多ラベルデータセットと単一ラベルデータセットの両方において,キャニーエッジ検出(MGIC)に基づく新たな勾配インバージョン戦略を提案する。
提案手法は、最も広く使われているものよりも視覚的逆画像結果の方が優れており、ImageNetデータセットの78%以上の時間的コストを節約できる。
論文 参考訳(メタデータ) (2024-03-13T06:34:49Z) - BFRFormer: Transformer-based generator for Real-World Blind Face
Restoration [37.77996097891398]
本稿では,トランスフォーマーをベースとしたブラインドフェイス復元手法BFRFormerを提案する。
提案手法は, 合成データセットと実世界の4つのデータセットにおいて, 最先端の手法より優れる。
論文 参考訳(メタデータ) (2024-02-29T02:31:54Z) - Towards Eliminating Hard Label Constraints in Gradient Inversion Attacks [88.12362924175741]
グラディエント・インバージョン・アタックは、フェデレート学習フレームワークで公開された中間勾配から局所的なトレーニングデータを再構築することを目的としている。
以前のメソッドは、単一のデータポイントの再構築から始まり、単一イメージの制限をバッチレベルに緩和することから始まり、ハードラベルの制約の下でのみテストされる。
単入力勾配から最後の完全連結層の入力特徴と地下構造ラベルを同時に復元する新しいアルゴリズムを最初に開始する。
論文 参考訳(メタデータ) (2024-02-05T15:51:34Z) - DiffBIR: Towards Blind Image Restoration with Generative Diffusion Prior [70.46245698746874]
DiffBIRは、視覚の異なる画像復元タスクを処理できる一般的な修復パイプラインである。
DiffBIRは, ブラインド画像復元問題を, 1) 劣化除去: 画像に依存しない内容の除去; 2) 情報再生: 失われた画像内容の生成の2段階に分離する。
第1段階では, 修復モジュールを用いて劣化を除去し, 高忠実度復元結果を得る。
第2段階では、潜伏拡散モデルの生成能力を活用して現実的な詳細を生成するIRControlNetを提案する。
論文 参考訳(メタデータ) (2023-08-29T07:11:52Z) - DR2: Diffusion-based Robust Degradation Remover for Blind Face
Restoration [66.01846902242355]
ブラインド顔復元は通常、トレーニングのための事前定義された劣化モデルで劣化した低品質データを合成する。
トレーニングデータに現実のケースをカバーするために、あらゆる種類の劣化を含めることは、高価で実現不可能である。
本稿では、まず、劣化した画像を粗いが劣化不変な予測に変換し、次に、粗い予測を高品質な画像に復元するために拡張モジュールを使用するロバスト劣化再帰法(DR2)を提案する。
論文 参考訳(メタデータ) (2023-03-13T06:05:18Z) - Unsupervised Restoration of Weather-affected Images using Deep Gaussian
Process-based CycleGAN [92.15895515035795]
本稿では,CycleGANに基づくディープネットワークの監視手法について述べる。
我々は,より効果的なトレーニングにつながるCycleGANのトレーニングに新たな損失を導入し,高品質な再構築を実現した。
提案手法は, 脱落, 脱落, 脱落といった様々な修復作業に効果的に適用できることを実証する。
論文 参考訳(メタデータ) (2022-04-23T01:30:47Z) - Invertible Network for Unpaired Low-light Image Enhancement [78.33382003460903]
本稿では,非可逆的ネットワークを活用して,前処理における低照度画像の強化と,非対向学習により逆向きに通常の照度画像の劣化を図ることを提案する。
対向的損失に加えて、トレーニングの安定性を確保し、より詳細な画像を保存するために、様々な損失関数を設計する。
低照度画像に対するプログレッシブ自己誘導強調処理を提案し,SOTAに対して良好な性能を示す。
論文 参考訳(メタデータ) (2021-12-24T17:00:54Z) - LTT-GAN: Looking Through Turbulence by Inverting GANs [86.25869403782957]
本稿では,よく訓練されたGANによってカプセル化された視覚的事前情報を利用した最初の乱流緩和手法を提案する。
視覚的先行性に基づき、周期的な文脈距離で復元された画像の同一性を維持することを学ぶことを提案する。
本手法は, 回復した結果の視覚的品質と顔認証精度の両方において, 先行技術よりも優れていた。
論文 参考訳(メタデータ) (2021-12-04T16:42:13Z) - Towards General Deep Leakage in Federated Learning [13.643899029738474]
フェデレートラーニング(FL)は、ユーザのプライバシーを保護するために、ローカルデータではなくローカルモデルを共有し、集約することで、グローバルモデルのパフォーマンスを向上させる。
いくつかの研究では、アタッカーが共有勾配情報に基づいてプライベートデータを復元できることが示されている。
本稿では,FedSGDとFedAvgの利用シナリオに応じて,共有勾配や重みからトレーニングデータを再構築する手法を提案する。
論文 参考訳(メタデータ) (2021-10-18T07:49:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。