論文の概要: DIA: The Adversarial Exposure of Deterministic Inversion in Diffusion Models
- arxiv url: http://arxiv.org/abs/2510.00778v1
- Date: Wed, 01 Oct 2025 11:20:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.529396
- Title: DIA: The Adversarial Exposure of Deterministic Inversion in Diffusion Models
- Title(参考訳): DIA:拡散モデルにおける決定論的逆転の逆露光
- Authors: Seunghoo Hong, Geonho Son, Juhun Lee, Simon S. Woo,
- Abstract要約: 本稿では,統合されたDDIM軌道路を攻撃するDDIMインバージョンアタック(DIA)を提案する。
本研究は, 様々な編集方法にまたがる従来の防御手法を克服し, 効果的破壊を支援する。
- 参考スコア(独自算出の注目度): 27.30533926104877
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models have shown to be strong representation learners, showcasing state-of-the-art performance across multiple domains. Aside from accelerated sampling, DDIM also enables the inversion of real images back to their latent codes. A direct inheriting application of this inversion operation is real image editing, where the inversion yields latent trajectories to be utilized during the synthesis of the edited image. Unfortunately, this practical tool has enabled malicious users to freely synthesize misinformative or deepfake contents with greater ease, which promotes the spread of unethical and abusive, as well as privacy-, and copyright-infringing contents. While defensive algorithms such as AdvDM and Photoguard have been shown to disrupt the diffusion process on these images, the misalignment between their objectives and the iterative denoising trajectory at test time results in weak disruptive performance.In this work, we present the DDIM Inversion Attack (DIA) that attacks the integrated DDIM trajectory path. Our results support the effective disruption, surpassing previous defensive methods across various editing methods. We believe that our frameworks and results can provide practical defense methods against the malicious use of AI for both the industry and the research community. Our code is available here: https://anonymous.4open.science/r/DIA-13419/.
- Abstract(参考訳): 拡散モデルは、複数の領域にわたる最先端のパフォーマンスを示す強力な表現学習者であることが示されている。
DDIMは、サンプリングの高速化とは別に、実際のイメージを潜伏するコードに戻すこともできる。
この反転操作の直接継承された応用は、実際の画像編集であり、この反転は、編集された画像の合成中に利用すべき遅延軌跡を出力する。
残念ながら、この実用的なツールにより、悪意のあるユーザは、非倫理的で虐待的なコンテンツや、プライバシーや著作権を侵害するコンテンツの拡散を促進するために、より容易に、不正な情報やディープフェイクコンテンツを自由に合成できるようになった。
本稿では,AdvDM や Photoguard などの防衛アルゴリズムがこれらの画像上の拡散過程を妨害することを示したが,その目的と試験時の反復的騒音軌跡のずれが破壊的性能の低下を招き,統合されたDDIM 軌道路を攻撃する DDIM インバージョンアタック (DIA) を提示する。
本研究は, 様々な編集方法にまたがる従来の防御手法を克服し, 効果的破壊を支援する。
我々は、我々のフレームワークと結果が、業界と研究コミュニティの両方にとって悪意あるAIの使用に対して実践的な防御手段を提供することができると信じている。
私たちのコードはこちらで入手できる。
関連論文リスト
- PromptFlare: Prompt-Generalized Defense via Cross-Attention Decoy in Diffusion-Based Inpainting [25.24109316946351]
PromptFlareは,拡散型塗布モデルによる悪質な修正から画像を保護するために設計された,新たな敵対的保護手法である。
提案手法は, 急速埋め込みの固有特性を利用して, 対向ノイズを注入し, サンプリング過程を抑える。
EditBenchデータセットを用いた実験により,本手法が各種メトリクスの最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2025-08-22T08:42:46Z) - ForensicsSAM: Toward Robust and Unified Image Forgery Detection and Localization Resisting to Adversarial Attack [56.0056378072843]
高い転送性を持つ逆画像は上流モデルでのみ作成可能であることを示す。
本稿では,IFDLフレームワークを組み込んだForensicsSAMを提案する。
論文 参考訳(メタデータ) (2025-08-10T16:03:44Z) - Pixel Is Not a Barrier: An Effective Evasion Attack for Pixel-Domain Diffusion Models [9.905296922309157]
拡散モデルは高品質な画像合成のための強力な生成モデルとして登場し、それに基づく画像編集技術も数多くある。
従来の研究は、知覚不能な摂動を加えることで、画像の拡散に基づく編集を防ごうとしてきた。
本研究は,UNETの脆弱性を利用した新たな攻撃フレームワークであるAtkPDMと,敵画像の自然性を高めるための潜在最適化戦略を提案する。
論文 参考訳(メタデータ) (2024-08-21T17:56:34Z) - AEROBLADE: Training-Free Detection of Latent Diffusion Images Using Autoencoder Reconstruction Error [15.46508882889489]
計算コストの低い高解像度画像を生成するための重要なイネーブルは、潜時拡散モデル(LDM)の開発である。
LDMは、高次元画像空間の代わりに、事前訓練されたオートエンコーダ(AE)の低次元潜時空間で復調処理を行う。
本稿では,画像と潜時空間間の画像変換に用いるAEという,LDMの固有成分を利用した新しい検出手法を提案する。
論文 参考訳(メタデータ) (2024-01-31T14:36:49Z) - Contrastive Denoising Score for Text-guided Latent Diffusion Image Editing [58.48890547818074]
潜在拡散モデル(LDM)に対するコントラストデノナイジングスコア(CUT)の強力な修正を提案する。
提案手法により,ゼロショット画像から画像への変換とニューラルフィールド(NeRF)の編集が可能となり,入力と出力の間の構造的対応が達成される。
論文 参考訳(メタデータ) (2023-11-30T15:06:10Z) - MetaCloak: Preventing Unauthorized Subject-driven Text-to-image Diffusion-based Synthesis via Meta-learning [59.988458964353754]
テキストから画像への拡散モデルにより、スキャンされた参照写真からパーソナライズされた画像をシームレスに生成できる。
既存のアプローチは、悪意のある使用から"学習不能"なイメージをレンダリングするために、知覚不可能な方法でユーザーイメージを摂動させる。
メタ学習フレームワークを用いて,バイレベル中毒の問題を解決するメタクラックを提案する。
論文 参考訳(メタデータ) (2023-11-22T03:31:31Z) - Dual Manifold Adversarial Robustness: Defense against Lp and non-Lp
Adversarial Attacks [154.31827097264264]
敵の訓練は、境界Lpノルムを持つ攻撃脅威モデルに対する一般的な防衛戦略である。
本稿では,2次元マニフォールド逆行訓練(DMAT)を提案する。
我々のDMATは、通常の画像の性能を改善し、Lp攻撃に対する標準的な敵の訓練と同等の堅牢性を達成する。
論文 参考訳(メタデータ) (2020-09-05T06:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。