論文の概要: Is Diffusion Model Safe? Severe Data Leakage via Gradient-Guided Diffusion Model
- arxiv url: http://arxiv.org/abs/2406.09484v1
- Date: Thu, 13 Jun 2024 14:41:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-17 17:34:26.740370
- Title: Is Diffusion Model Safe? Severe Data Leakage via Gradient-Guided Diffusion Model
- Title(参考訳): 拡散モデルは安全か? 勾配誘導拡散モデルによるデータ漏洩の深刻化
- Authors: Jiayang Meng, Tao Huang, Hong Chen, Cuiping Li,
- Abstract要約: グラディエントリークは、現代の画像処理システムにおけるプライバシー侵害の潜在的な原因として特定されている。
本稿では,高解像度画像を盗むことができる新しい再構成攻撃法を提案する。
本手法は,画像再構成の画素単位の精度と時間効率の両方でSOTA攻撃ベースラインを著しく上回っている。
- 参考スコア(独自算出の注目度): 13.66943548640248
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gradient leakage has been identified as a potential source of privacy breaches in modern image processing systems, where the adversary can completely reconstruct the training images from leaked gradients. However, existing methods are restricted to reconstructing low-resolution images where data leakage risks of image processing systems are not sufficiently explored. In this paper, by exploiting diffusion models, we propose an innovative gradient-guided fine-tuning method and introduce a new reconstruction attack that is capable of stealing private, high-resolution images from image processing systems through leaked gradients where severe data leakage encounters. Our attack method is easy to implement and requires little prior knowledge. The experimental results indicate that current reconstruction attacks can steal images only up to a resolution of $128 \times 128$ pixels, while our attack method can successfully recover and steal images with resolutions up to $512 \times 512$ pixels. Our attack method significantly outperforms the SOTA attack baselines in terms of both pixel-wise accuracy and time efficiency of image reconstruction. Furthermore, our attack can render differential privacy ineffective to some extent.
- Abstract(参考訳): 現代の画像処理システムでは、グラディエントリークが潜在的なプライバシー侵害の原因として認識されており、敵はリークした勾配からトレーニングイメージを完全に再構築することができる。
しかし,既存の手法では,画像処理システムのデータ漏洩リスクが十分に調査されていない低解像度画像の再構成に制限されている。
本稿では, 拡散モデルを利用して, 高精度なデータ漏洩が発生しているリーク勾配を通して, 画像処理システムからプライベートな高解像度画像を盗むことのできる, 革新的なグラデーション誘導微調整手法を提案する。
我々の攻撃方法は実装が容易で、事前の知識はほとんど必要ありません。
実験結果から,現在の再構築攻撃では,解像度が128ドル/128ドル/128ドル/128ドル/128ドル/128ドル/128ドル/128ドル/512ドル/512ドル/512ドル/512ドル/512ドル/512ドル/512ドル/1。
本手法は,画像再構成の画素単位の精度と時間効率の両方でSOTA攻撃ベースラインを著しく上回っている。
さらに、我々の攻撃はある程度の差分プライバシーを無効にすることができる。
関連論文リスト
- Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - IMPRESS: Evaluating the Resilience of Imperceptible Perturbations
Against Unauthorized Data Usage in Diffusion-Based Generative AI [52.90082445349903]
拡散ベースの画像生成モデルは、アーティストのスタイルを模倣するアートイメージを作成したり、偽のコンテンツのためにオリジナルの画像を悪意を持って編集することができる。
知覚不能な摂動を追加することによって、元のイメージをそのような不正なデータ使用から保護する試みがいくつかなされている。
本研究では, IMPRESS という浄化摂動プラットフォームを導入し, 非受容性摂動の有効性を保護策として評価する。
論文 参考訳(メタデータ) (2023-10-30T03:33:41Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion Models [79.71665540122498]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - Understanding Reconstruction Attacks with the Neural Tangent Kernel and
Dataset Distillation [110.61853418925219]
我々は、データセット再構築攻撃のより強力なバージョンを構築し、無限の幅で設定されたエンペントリアルトレーニングを確実に回復する方法を示す。
理論的にも経験的にも再構成された画像は、データセットの「外部」に傾向を示す。
これらのリコンストラクション攻撃は, テクストデータセット蒸留において, 再構成画像上で再トレーニングを行い, 高い予測精度を得ることができる。
論文 参考訳(メタデータ) (2023-02-02T21:41:59Z) - An Eye for an Eye: Defending against Gradient-based Attacks with
Gradients [24.845539113785552]
勾配に基づく敵攻撃は高い成功率を示している。
この勾配は、敵の攻撃から防御するための強力な武器として利用することもできる。
勾配図と逆画像の両方を入力として使用することにより、逆画像の復元を行う2ストリーム復元ネットワーク(TRN)を提案する。
論文 参考訳(メタデータ) (2022-02-02T16:22:28Z) - Improving Robustness with Image Filtering [3.169089186688223]
本稿では、画像の基本ノードとその接続をグラフ構造を介して抽出する、画像グラフエクストラクタ(IGE)と呼ばれる新しい画像フィルタリング手法を提案する。
IGE表現を活用することで、攻撃者がピクセルを絡めて悪意あるパターンを生成できない新しいディフェンスメソッドであるFilting as a Defenseを構築します。
フィルタ画像によるデータ拡張は,データの破損に対するモデルの堅牢性を効果的に改善することを示す。
論文 参考訳(メタデータ) (2021-12-21T14:04:25Z) - Hiding Images into Images with Real-world Robustness [21.328984859163956]
高品質な画像抽出を実現しつつ,画像に隠蔽する生成ネットワーク方式を提案する。
埋め込みネットワークは、攻撃層、分離ネットワーク、画像抽出ネットワークと順次分離される。
私たちは3つの秘密のイメージをしっかりと隠した最初の人です。
論文 参考訳(メタデータ) (2021-10-12T02:20:34Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Delving into Deep Image Prior for Adversarial Defense: A Novel
Reconstruction-based Defense Framework [34.75025893777763]
本研究は, より深いイメージを掘り下げることによる, 新規かつ効果的な再構築型防御フレームワークを提案する。
提案手法は, モデル決定過程を分析し, 明示的に記述する。
実験により,提案手法は,ホワイトボックス攻撃とディフェンスアウェア攻撃の両面において,既存の最先端の再構築手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-07-31T08:49:17Z) - Underwater Image Restoration via Contrastive Learning and a Real-world
Dataset [59.35766392100753]
本稿では,教師なし画像から画像への翻訳フレームワークに基づく水中画像復元手法を提案する。
提案手法は, 生画像と復元画像の相互情報を最大化するために, コントラスト学習と生成敵ネットワークを利用した。
論文 参考訳(メタデータ) (2021-06-20T16:06:26Z) - Analysis and Mitigations of Reverse Engineering Attacks on Local Feature
Descriptors [15.973484638972739]
我々は,制御条件下でスパース特徴マップに対するリバースエンジニアリング攻撃を示し,人気のある記述子の脆弱性を分析した。
画像マッチング精度を維持しつつ,プライバシ復元リスクを慎重にバランスをとるために,ディスクリプタのサブセットを選択する潜在的な緩和手法を評価する。
論文 参考訳(メタデータ) (2021-05-09T01:41:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。