論文の概要: AdvPaint: Protecting Images from Inpainting Manipulation via Adversarial Attention Disruption
- arxiv url: http://arxiv.org/abs/2503.10081v1
- Date: Thu, 13 Mar 2025 06:05:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:53:46.589960
- Title: AdvPaint: Protecting Images from Inpainting Manipulation via Adversarial Attention Disruption
- Title(参考訳): AdvPaint: 敵対的注意障害による画像の塗布操作から保護
- Authors: Joonsung Jeon, Woo Jae Kim, Suhyeon Ha, Sooel Son, Sung-eui Yoon,
- Abstract要約: 悪意のある敵は、特定の地域を有名人と置き換えるなど、塗装作業の拡散モデルを利用する。
本稿では,敵の影響力を効果的に破壊する敵の摂動を生成する新しいフレームワークであるADVPAINTを提案する。
実験の結果,ADVPAINTの摂動は敵の着色課題を妨害し,既存手法より優れていることが示された。
- 参考スコア(独自算出の注目度): 25.06674328160838
- License:
- Abstract: The outstanding capability of diffusion models in generating high-quality images poses significant threats when misused by adversaries. In particular, we assume malicious adversaries exploiting diffusion models for inpainting tasks, such as replacing a specific region with a celebrity. While existing methods for protecting images from manipulation in diffusion-based generative models have primarily focused on image-to-image and text-to-image tasks, the challenge of preventing unauthorized inpainting has been rarely addressed, often resulting in suboptimal protection performance. To mitigate inpainting abuses, we propose ADVPAINT, a novel defensive framework that generates adversarial perturbations that effectively disrupt the adversary's inpainting tasks. ADVPAINT targets the self- and cross-attention blocks in a target diffusion inpainting model to distract semantic understanding and prompt interactions during image generation. ADVPAINT also employs a two-stage perturbation strategy, dividing the perturbation region based on an enlarged bounding box around the object, enhancing robustness across diverse masks of varying shapes and sizes. Our experimental results demonstrate that ADVPAINT's perturbations are highly effective in disrupting the adversary's inpainting tasks, outperforming existing methods; ADVPAINT attains over a 100-point increase in FID and substantial decreases in precision.
- Abstract(参考訳): 高品質の画像生成における拡散モデルの優れた能力は、敵が誤用した場合に重大な脅威をもたらす。
特に、特定の地域を有名人と置き換えるなど、悪質な敵が拡散モデルを利用して、タスクを塗り替えていると仮定する。
拡散型生成モデルにおける画像の操作から画像を保護する既存の手法は、主にイメージ・ツー・イメージとテキスト・ツー・イメージのタスクに焦点を合わせてきたが、未承認の塗布を防止するという課題はほとんど解決されておらず、しばしば準最適保護性能をもたらす。
本稿では,敵の嫌悪行為を効果的に妨害する敵の摂動を発生させる新しい防御枠組みであるADVPAINTを提案する。
ADVPAINTは、ターゲット拡散塗装モデルにおける自己および横断的なブロックをターゲットとし、セマンティック理解を阻害し、画像生成中に相互作用を促す。
ADVPAINTは2段階の摂動戦略も採用しており、物体の周囲に拡張されたバウンディングボックスをベースとした摂動領域を分割し、形状や大きさの異なる多彩なマスクに対して堅牢性を高める。
実験の結果,ADVPAINTの摂動は敵の着色課題を妨害し,既存の手法より優れており,ADVPAINTはFIDが100点以上増加し,精度が著しく低下していることが明らかとなった。
関連論文リスト
- InpDiffusion: Image Inpainting Localization via Conditional Diffusion Models [10.213390634031049]
現在のIIL法は2つの大きな課題に直面している。
拡散モデルを用いた条件付きマスク生成タスクとしてIILを扱う新しいパラダイムを提案する。
我々の手法であるInpDiffusionは、画像意味条件の統合によって強化された復調過程を利用して、予測を段階的に洗練する。
論文 参考訳(メタデータ) (2025-01-06T07:32:12Z) - DiffusionGuard: A Robust Defense Against Malicious Diffusion-based Image Editing [93.45507533317405]
DiffusionGuardは、拡散ベースの画像編集モデルによる不正な編集に対する堅牢で効果的な防御方法である。
拡散過程の初期段階をターゲットとした対向雑音を発生させる新しい目的を提案する。
また,テスト期間中の各種マスクに対するロバスト性を高めるマスク強化手法も導入した。
論文 参考訳(メタデータ) (2024-10-08T05:19:19Z) - ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に対する潜在的な脅威となる。
この不正行為を防ぐため、プロアクティブな防御技術が提案され、操作プロセスを妨害した。
我々は,ID-Guardと呼ばれる,顔操作と戦うための新しい普遍的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - Pixel Is Not a Barrier: An Effective Evasion Attack for Pixel-Domain Diffusion Models [9.905296922309157]
拡散モデルは高品質な画像合成のための強力な生成モデルとして登場し、それに基づく画像編集技術も数多くある。
従来の研究は、知覚不能な摂動を加えることで、画像の拡散に基づく編集を防ごうとしてきた。
本研究は,UNETの脆弱性を利用した新たな攻撃フレームワークであるAtkPDMと,敵画像の自然性を高めるための潜在最適化戦略を提案する。
論文 参考訳(メタデータ) (2024-08-21T17:56:34Z) - DDAP: Dual-Domain Anti-Personalization against Text-to-Image Diffusion Models [18.938687631109925]
拡散に基づくパーソナライズされたビジュアルコンテンツ生成技術は、大きなブレークスルーを達成した。
しかし、偽のニュースや個人をターゲットとするコンテンツを作るのに誤用された場合、これらの技術は社会的な危害をもたらす可能性がある。
本稿では,新しいDual-Domain Anti-Personalization framework(DDAP)を紹介する。
これら2つの手法を交互に組み合わせることで、DDAPフレームワークを構築し、両方のドメインの強みを効果的に活用する。
論文 参考訳(メタデータ) (2024-07-29T16:11:21Z) - Perturbing Attention Gives You More Bang for the Buck: Subtle Imaging Perturbations That Efficiently Fool Customized Diffusion Models [11.91784429717735]
疑似潜伏拡散モデル(LDM)に対する汎用的で効率的なアプローチであるCAATを提案する。
画像上の微妙な勾配が相互注意層に大きく影響し,テキストと画像のマッピングが変化することを示す。
実験により、CAATは多様な拡散モデルと互換性があり、ベースライン攻撃法より優れていることが示された。
論文 参考訳(メタデータ) (2024-04-23T14:31:15Z) - Revealing Vulnerabilities in Stable Diffusion via Targeted Attacks [41.531913152661296]
本稿では,安定拡散に対する標的対向攻撃の問題を定式化し,対向的プロンプトを生成するための枠組みを提案する。
具体的には、安定した拡散を誘導し、特定の画像を生成するための信頼性の高い逆プロンプトを構築するために、勾配に基づく埋め込み最適化を設計する。
逆方向のプロンプトを成功させた後、モデルの脆弱性を引き起こすメカニズムを明らかにする。
論文 参考訳(メタデータ) (2024-01-16T12:15:39Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - DiffProtect: Generate Adversarial Examples with Diffusion Models for
Facial Privacy Protection [64.77548539959501]
DiffProtectは最先端の方法よりも自然に見える暗号化画像を生成する。
例えば、CelebA-HQとFFHQのデータセットで24.5%と25.1%の絶対的な改善が達成されている。
論文 参考訳(メタデータ) (2023-05-23T02:45:49Z) - Content-based Unrestricted Adversarial Attack [53.181920529225906]
本稿では,コンテンツベース非制限攻撃という新たな非制限攻撃フレームワークを提案する。
自然像を表す低次元多様体を利用することで、像を多様体上に写像し、その逆方向に沿って最適化する。
論文 参考訳(メタデータ) (2023-05-18T02:57:43Z) - Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition [111.1952945740271]
Adv-Attribute (Adv-Attribute) は、顔認証に対する不明瞭で伝達可能な攻撃を生成するように設計されている。
FFHQとCelebA-HQデータセットの実験は、提案されたAdv-Attributeメソッドが最先端の攻撃成功率を達成することを示している。
論文 参考訳(メタデータ) (2022-10-13T09:56:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。