論文の概要: Pixel is a Barrier: Diffusion Models Are More Adversarially Robust Than We Think
- arxiv url: http://arxiv.org/abs/2404.13320v2
- Date: Thu, 2 May 2024 02:25:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-03 21:11:56.964522
- Title: Pixel is a Barrier: Diffusion Models Are More Adversarially Robust Than We Think
- Title(参考訳): Pixelは「バリアー」:拡散モデルは想像以上に逆向きにロバスト
- Authors: Haotian Xue, Yongxin Chen,
- Abstract要約: 拡散モデルの逆例は、安全上の問題に対する解決策として広く使われている。
このことは、拡散モデルがほとんどの深層モデルのような敵攻撃に対して脆弱であると考えることを誤解させるかもしれない。
本稿では, 勾配をベースとしたホワイトボックス攻撃がLDM攻撃に有効であっても, PDM攻撃に失敗する,という新たな知見を示す。
- 参考スコア(独自算出の注目度): 14.583181596370386
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Adversarial examples for diffusion models are widely used as solutions for safety concerns. By adding adversarial perturbations to personal images, attackers can not edit or imitate them easily. However, it is essential to note that all these protections target the latent diffusion model (LDMs), the adversarial examples for diffusion models in the pixel space (PDMs) are largely overlooked. This may mislead us to think that the diffusion models are vulnerable to adversarial attacks like most deep models. In this paper, we show novel findings that: even though gradient-based white-box attacks can be used to attack the LDMs, they fail to attack PDMs. This finding is supported by extensive experiments of almost a wide range of attacking methods on various PDMs and LDMs with different model structures, which means diffusion models are indeed much more robust against adversarial attacks. We also find that PDMs can be used as an off-the-shelf purifier to effectively remove the adversarial patterns that were generated on LDMs to protect the images, which means that most protection methods nowadays, to some extent, cannot protect our images from malicious attacks. We hope that our insights will inspire the community to rethink the adversarial samples for diffusion models as protection methods and move forward to more effective protection. Codes are available in https://github.com/xavihart/PDM-Pure.
- Abstract(参考訳): 拡散モデルの逆例は、安全上の問題に対する解決策として広く使われている。
個人画像に敵対的摂動を加えることで、攻撃者は容易にそれらを編集したり模倣したりすることはできない。
しかしながら、これらすべての保護が潜在拡散モデル(LDM)をターゲットにしていることに注意する必要がある。
このことは、拡散モデルがほとんどの深層モデルのような敵攻撃に対して脆弱であると考えることを誤解させるかもしれない。
本稿では, 勾配をベースとしたホワイトボックス攻撃がLDM攻撃に有効であっても, PDM攻撃に失敗する,という新たな知見を示す。
この発見は、異なるモデル構造を持つ様々なPDMおよびLCDに対する、ほぼ幅広い攻撃手法の広範な実験によって裏付けられている。
また, PDMは, 画像を保護するために, LDMで生成した対向パターンを効果的に除去するために, オフ・ザ・シェルフ・パーファイラとして使用することができる。
我々は、我々の洞察が、拡散モデルに対する敵のサンプルを保護方法として再考し、より効果的な保護に向けて前進させることを期待している。
コードはhttps://github.com/xavihart/PDM-Pure.comで入手できる。
関連論文リスト
- Watch the Watcher! Backdoor Attacks on Security-Enhancing Diffusion Models [65.30406788716104]
本研究では,セキュリティ強化拡散モデルの脆弱性について検討する。
これらのモデルは、シンプルで効果的なバックドア攻撃であるDIFF2に非常に感受性があることを実証する。
ケーススタディでは、DIFF2は、ベンチマークデータセットとモデル間で、パーフィケーション後の精度と認定精度の両方を著しく削減できることを示している。
論文 参考訳(メタデータ) (2024-06-14T02:39:43Z) - Elijah: Eliminating Backdoors Injected in Diffusion Models via
Distribution Shift [86.92048184556936]
DMの最初のバックドア検出・除去フレームワークを提案する。
DDPM, NCSN, LDMを含む3種類のDMを用いて, フレームワークのElijahを評価した。
提案手法では, モデルの有用性を著しく損なうことなく, 検出精度が100%に近づき, バックドア効果をゼロに抑えることができる。
論文 参考訳(メタデータ) (2023-11-27T23:58:56Z) - Improving Adversarial Attacks on Latent Diffusion Model [8.268827963476317]
LDM(Latent Diffusion Model)に対するアドリアック攻撃は、無許可画像上でのLDMの悪意ある微調整に対する効果的な保護である。
これらの攻撃は, LDMが予測した逆例のスコア関数に余分な誤差を与えることを示す。
本稿では,一貫したスコア関数誤差を用いた攻撃によるLCMの敵攻撃を改善することを提案する。
論文 参考訳(メタデータ) (2023-10-07T05:24:42Z) - Toward effective protection against diffusion based mimicry through
score distillation [15.95715097030366]
拡散に基づく模倣パイプラインから画像を保護するため、摂動を追加する努力がなされている。
既存の手法のほとんどは非効率であり、個々のユーザーが使うには実用的ではない。
本稿では,潜伏拡散モデルに対する攻撃に関する新たな知見と,より効果的な保護のための新しいプラグ・アンド・プレイ戦略を提案する。
論文 参考訳(メタデータ) (2023-10-02T18:56:12Z) - DiffProtect: Generate Adversarial Examples with Diffusion Models for
Facial Privacy Protection [64.77548539959501]
DiffProtectは最先端の方法よりも自然に見える暗号化画像を生成する。
例えば、CelebA-HQとFFHQのデータセットで24.5%と25.1%の絶対的な改善が達成されている。
論文 参考訳(メタデータ) (2023-05-23T02:45:49Z) - Diffusion Models for Imperceptible and Transferable Adversarial Attack [23.991194050494396]
本稿では,拡散モデルの生成的および識別的パワーを両立させることにより,新たな非受容的かつ伝達可能な攻撃を提案する。
提案手法であるDiffAttackは,対向攻撃場に拡散モデルを導入する最初の方法である。
論文 参考訳(メタデータ) (2023-05-14T16:02:36Z) - TrojDiff: Trojan Attacks on Diffusion Models with Diverse Targets [74.12197473591128]
拡散モデルに対する効果的なトロイ・アタック(TrojDiff)を提案する。
特に, トロイの木馬拡散過程における新たな遷移を設計し, 対立対象をバイアス付きガウス分布に拡散させる。
そこで,TrojDiffは,異なる種類のトリガを用いて,異なる攻撃対象下で常に高い攻撃性能を達成することを示す。
論文 参考訳(メタデータ) (2023-03-10T08:01:23Z) - "What's in the box?!": Deflecting Adversarial Attacks by Randomly
Deploying Adversarially-Disjoint Models [71.91835408379602]
敵の例は長い間、機械学習モデルに対する真の脅威と考えられてきた。
我々は、従来のホワイトボックスやブラックボックスの脅威モデルを超えた、配置ベースの防衛パラダイムを提案する。
論文 参考訳(メタデータ) (2021-02-09T20:07:13Z) - Dual Manifold Adversarial Robustness: Defense against Lp and non-Lp
Adversarial Attacks [154.31827097264264]
敵の訓練は、境界Lpノルムを持つ攻撃脅威モデルに対する一般的な防衛戦略である。
本稿では,2次元マニフォールド逆行訓練(DMAT)を提案する。
我々のDMATは、通常の画像の性能を改善し、Lp攻撃に対する標準的な敵の訓練と同等の堅牢性を達成する。
論文 参考訳(メタデータ) (2020-09-05T06:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。