論文の概要: GI-PIP: Do We Require Impractical Auxiliary Dataset for Gradient
Inversion Attacks?
- arxiv url: http://arxiv.org/abs/2401.11748v2
- Date: Tue, 23 Jan 2024 02:13:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 12:42:05.099486
- Title: GI-PIP: Do We Require Impractical Auxiliary Dataset for Gradient
Inversion Attacks?
- Title(参考訳): GI-PIP: グラディエント・インバージョン・アタックの非現実的補助的データセットは必要か?
- Authors: Yu sun, Gaojian Xiong, Xianxun Yao, Kailang Ma, Jian Cui
- Abstract要約: 実用的な画像優先(GI-PIP)を用いたグラディエント・インバージョン・アタックを提案する。
GI-PIPは異常検出モデルを利用して、より少ないデータから基礎となる分布をキャプチャする一方、GANベースの手法は画像の合成にかなりの量のデータを消費する。
実験の結果、GI-PIPは画像Netの3.8%のデータのみを使用して16.12dBのPSNRリカバリを実現し、GANベースの手法は70%以上必要であることがわかった。
- 参考スコア(独自算出の注目度): 7.728001435173183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep gradient inversion attacks expose a serious threat to Federated Learning
(FL) by accurately recovering private data from shared gradients. However, the
state-of-the-art heavily relies on impractical assumptions to access excessive
auxiliary data, which violates the basic data partitioning principle of FL. In
this paper, a novel method, Gradient Inversion Attack using Practical Image
Prior (GI-PIP), is proposed under a revised threat model. GI-PIP exploits
anomaly detection models to capture the underlying distribution from fewer
data, while GAN-based methods consume significant more data to synthesize
images. The extracted distribution is then leveraged to regulate the attack
process as Anomaly Score loss. Experimental results show that GI-PIP achieves a
16.12 dB PSNR recovery using only 3.8% data of ImageNet, while GAN-based
methods necessitate over 70%. Moreover, GI-PIP exhibits superior capability on
distribution generalization compared to GAN-based methods. Our approach
significantly alleviates the auxiliary data requirement on both amount and
distribution in gradient inversion attacks, hence posing more substantial
threat to real-world FL.
- Abstract(参考訳): 深い勾配の反転攻撃は、共有勾配から個人データを正確に回収することで、フェデレートされた学習(FL)に深刻な脅威を露呈する。
しかし、最先端技術は、FLの基本データ分割原理に違反している過剰な補助データにアクセスするための非現実的な仮定に大きく依存している。
本稿では,GI-PIP(Practical Image Prior)を用いたグラディエント・インバージョン・アタック(Gradient Inversion Attack)を提案する。
GI-PIPは異常検出モデルを利用して、より少ないデータから基礎となる分布をキャプチャする一方、GANベースの手法は画像の合成に大量のデータを消費する。
抽出した分布を利用して攻撃プロセスをAnomaly Score損失として制御する。
実験の結果、GI-PIPはイメージネットの3.8%のデータのみを使用して16.12dBのPSNRリカバリを実現している。
さらに,GI-PIPはGAN法に比べて分布一般化に優れる。
本手法は,勾配反転攻撃における量と分布の補助的データ要求を著しく軽減し,現実のFLに対してより重大な脅威となる。
関連論文リスト
- Degradation-Guided One-Step Image Super-Resolution with Diffusion Priors [75.24313405671433]
拡散に基づく画像超解像法 (SR) は、事前訓練された大規模なテキスト・画像拡散モデルを先行として活用することにより、顕著な成功を収めた。
本稿では,拡散型SR手法の効率問題に対処する新しい一段階SRモデルを提案する。
既存の微調整戦略とは異なり、SR専用の劣化誘導低ランク適応 (LoRA) モジュールを設計した。
論文 参考訳(メタデータ) (2024-09-25T16:15:21Z) - Gradient Inversion of Federated Diffusion Models [4.1355611383748005]
拡散モデルは、非常に高解像度の画像データを生成する欠陥生成モデルになりつつある。
本稿では,勾配反転攻撃のプライバシーリスクについて検討する。
本稿では,未知データの最適化をコーディネートする三重最適化GIDM+を提案する。
論文 参考訳(メタデータ) (2024-05-30T18:00:03Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - Temporal Gradient Inversion Attacks with Robust Optimization [18.166835997248658]
フェデレートラーニング(FL)は、プライベートデータを共有せずに協調的なモデルトレーニングのための有望なアプローチとして登場した。
グラディエント・インバージョン・アタック(GIA)は、交換された勾配からローカルクライアントが保持するプライベートデータを再構築するために提案されている。
プライベートデータを復元する一方で、データ次元とモデルの複雑さが増加し、GAAによるデータの再構築が妨げられる。
複数の時間勾配を利用して、事前の知識なしにプライベートデータを復元するTGIAs-ROを提案する。
論文 参考訳(メタデータ) (2023-06-13T16:21:34Z) - Enhancing Privacy against Inversion Attacks in Federated Learning by
using Mixing Gradients Strategies [0.31498833540989407]
フェデレーション学習は情報漏洩のリスクを低減するが、攻撃に対して脆弱である。
いくつかのニューラルネットワーク設計決定が、勾配逆攻撃に対してどのように防御できるかを示す。
これらの戦略は、画像認識のためのLeNETのような深層畳み込みニューラルネットワークにも有用である。
論文 参考訳(メタデータ) (2022-04-26T12:08:28Z) - Deep Image Prior using Stein's Unbiased Risk Estimator: SURE-DIP [31.408877556706376]
超高解像度イメージングを含む多くのイメージングアプリケーションでは、トレーニングデータが不足している。
シングルショット画像回復のためのディープ画像先行アルゴリズム(DIP)が導入され、トレーニングデータの必要性を完全に排除した。
オーバーフィッティングを最小限に抑えるため,一般化されたStein's Unbiased Risk Estimation (GSURE)損失指標を導入する。
論文 参考訳(メタデータ) (2021-11-21T20:11:56Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - R-GAP: Recursive Gradient Attack on Privacy [5.687523225718642]
フェデレートラーニング(Federated Learning)は、プライバシの要求と、分散データの大規模なコレクションから学ぶという約束の間のジレンマを打破する、有望なアプローチである。
ディープニューラルネットワークの勾配からデータを復元するクローズドフォーム再帰法を提案する。
また,特定のネットワークアーキテクチャに固有の勾配攻撃のリスクを推定するランク解析手法を提案する。
論文 参考訳(メタデータ) (2020-10-15T13:22:40Z) - A Simple but Tough-to-Beat Data Augmentation Approach for Natural
Language Understanding and Generation [53.8171136907856]
カットオフと呼ばれる、シンプルで効果的なデータ拡張戦略のセットを紹介します。
カットオフはサンプリング一貫性に依存しているため、計算オーバーヘッドが少なくなる。
cutoffは、敵のトレーニングを一貫して上回り、IWSLT2014 German- English データセットで最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-09-29T07:08:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。