論文の概要: RAF-GI: Towards Robust, Accurate and Fast-Convergent Gradient Inversion
Attack in Federated Learning
- arxiv url: http://arxiv.org/abs/2403.08383v1
- Date: Wed, 13 Mar 2024 09:48:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 14:43:26.934425
- Title: RAF-GI: Towards Robust, Accurate and Fast-Convergent Gradient Inversion
Attack in Federated Learning
- Title(参考訳): RAF-GI:ロバスト、高精度、高速収束勾配インバージョンを目指して
フェデレートラーニングにおけるアタック
- Authors: Can Liu and Jin Wang and Dongyang Yu
- Abstract要約: 本稿では,RAF-GIと呼ばれるロバスト,高精度,高速なGI攻撃アルゴリズムを提案する。
RAF-GIは、ImageNetデータセットの超高画質を実現しながら、94%の時間コストを削減できる。
バッチサイズ1のRAF-GIは、最先端のベースラインに比べて7.89ピーク信号対ノイズ比(PSNR)が高い。
- 参考スコア(独自算出の注目度): 5.689524859498987
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) empowers privacy-preservation in model training by
only exposing users' model gradients. Yet, FL users are susceptible to the
gradient inversion (GI) attack which can reconstruct ground-truth training data
such as images based on model gradients. However, reconstructing
high-resolution images by existing GI attack works faces two challenges:
inferior accuracy and slow-convergence, especially when the context is
complicated, e.g., the training batch size is much greater than 1 on each FL
user. To address these challenges, we present a Robust, Accurate and
Fast-convergent GI attack algorithm, called RAF-GI, with two components: 1)
Additional Convolution Block (ACB) which can restore labels with up to 20%
improvement compared with existing works; 2) Total variance, three-channel mEan
and cAnny edge detection regularization term (TEA), which is a white-box attack
strategy to reconstruct images based on labels inferred by ACB. Moreover,
RAF-GI is robust that can still accurately reconstruct ground-truth data when
the users' training batch size is no more than 48. Our experimental results
manifest that RAF-GI can diminish 94% time costs while achieving superb
inversion quality in ImageNet dataset. Notably, with a batch size of 1, RAF-GI
exhibits a 7.89 higher Peak Signal-to-Noise Ratio (PSNR) compared to the
state-of-the-art baselines.
- Abstract(参考訳): フェデレートラーニング(FL)は、ユーザのモデル勾配のみを公開することによって、モデルトレーニングにおけるプライバシ保護を強化する。
しかし、FL利用者は、モデル勾配に基づく画像などの地中真実のトレーニングデータを再構成できるグラデーション・インバージョン(GI)攻撃の影響を受けやすい。
しかし、既存のGI攻撃作業による高解像度画像の再構成には、2つの課題がある: 精度の低下と収束の遅さ、特にコンテキストが複雑である場合、例えば、訓練バッチサイズが各FLユーザ1よりはるかに大きい。
これらの課題に対処するために,RAF-GIと呼ばれるロバスト,高精度,高速なGI攻撃アルゴリズムを提案する。
1) 既存の作業と比較して最大20%改善したラベルを復元できる追加の畳み込みブロック(ACB)
2) 3チャンネルのmEanとcAnnyエッジ検出正規化項(TEA)は,ACBが推定したラベルに基づいて画像の再構築を行うホワイトボックス攻撃戦略である。
さらに、RAF-GIは堅牢で、ユーザのトレーニングバッチサイズが48未満の場合にも、地上の真実データを正確に再構築することができる。
実験の結果,RAF-GIは94%の時間コスト削減が可能であり,ImageNetデータセットの超高精度なインバージョン品質を実現することができることがわかった。
特に、バッチサイズ1のRAF-GIは、最先端のベースラインに比べて7.89ピーク信号対ノイズ比(PSNR)が高い。
関連論文リスト
- Non-Visible Light Data Synthesis and Application: A Case Study for
Synthetic Aperture Radar Imagery [30.590315753622132]
非可視光領域における安定拡散やイメージnのような大規模事前学習画像生成モデルの「隠れ」能力について検討する。
2段階の低ランク適応法を提案し,これを2LoRAと呼ぶ。
第1段階では、構造がSARと一致する空中視正則画像データを用いてモデルを適応させ、続いて第1段階からのベースモデルをSARモダリティデータによりさらに適応させる第2段階とする。
論文 参考訳(メタデータ) (2023-11-29T09:48:01Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - Breaking Through the Haze: An Advanced Non-Homogeneous Dehazing Method
based on Fast Fourier Convolution and ConvNeXt [14.917290578644424]
ヘイズは通常、低コントラスト、色の変化、構造歪みで劣化した画像につながる。
本稿では、2次元離散ウェーブレット変換(DWT)、高速フーリエ畳み込み(FFC)残差ブロック、事前訓練されたConvNeXtモデルを活用する2つの分岐ネットワークを提案する。
我々のモデルは、グローバルな文脈情報を効果的に探索し、知覚品質の高い画像を生成することができる。
論文 参考訳(メタデータ) (2023-05-08T02:59:02Z) - Contrastive Feature Loss for Image Prediction [55.373404869092866]
教師付き画像合成モデルのトレーニングでは、批評家は2つの画像を比較する必要がある。
本稿では,2つの画像間の類似度を測定するための情報理論に基づくアプローチを提案する。
この定式化により,L1損失の代替として,出力画像の知覚的リアリズムが向上することを示す。
論文 参考訳(メタデータ) (2021-11-12T20:39:52Z) - Towards General Deep Leakage in Federated Learning [13.643899029738474]
フェデレートラーニング(FL)は、ユーザのプライバシーを保護するために、ローカルデータではなくローカルモデルを共有し、集約することで、グローバルモデルのパフォーマンスを向上させる。
いくつかの研究では、アタッカーが共有勾配情報に基づいてプライベートデータを復元できることが示されている。
本稿では,FedSGDとFedAvgの利用シナリオに応じて,共有勾配や重みからトレーニングデータを再構築する手法を提案する。
論文 参考訳(メタデータ) (2021-10-18T07:49:52Z) - Ultra-Data-Efficient GAN Training: Drawing A Lottery Ticket First, Then
Training It Toughly [114.81028176850404]
限られたデータでGAN(generative adversarial network)を訓練すると、一般的に性能が低下し、モデルが崩壊する。
データハングリーGANトレーニングを2つのシーケンシャルサブプロブレムに分解する。
このような協調フレームワークにより、より低い複雑さとよりデータ効率のよいサブ問題に集中することができます。
論文 参考訳(メタデータ) (2021-02-28T05:20:29Z) - Differentiable Augmentation for Data-Efficient GAN Training [48.920992130257595]
DiffAugmentは,実検体と偽検体の両方に様々な種類の微分可能拡張を付与することにより,GANのデータ効率を向上させる簡易な手法である。
本手法は,既存の移動学習アルゴリズムと同等でありながら,事前学習することなく,100個の画像のみを用いて高忠実度画像を生成することができる。
論文 参考訳(メタデータ) (2020-06-18T17:59:01Z) - RAFT: Recurrent All-Pairs Field Transforms for Optical Flow [78.92562539905951]
光フローのための新しいディープネットワークアーキテクチャであるRAFT(Recurrent All-Pairs Field Transforms)を導入する。
RAFTは画素あたりの特徴を抽出し、すべての画素に対してマルチスケールの4D相関ボリュームを構築し、フローフィールドを反復的に更新する。
RAFTは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-03-26T17:12:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。