論文の概要: Diffusion-Based Image Editing for Breaking Robust Watermarks
- arxiv url: http://arxiv.org/abs/2510.05978v1
- Date: Tue, 07 Oct 2025 14:34:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.291137
- Title: Diffusion-Based Image Editing for Breaking Robust Watermarks
- Title(参考訳): 拡散に基づくロバストな透かしに対する画像編集
- Authors: Yunyi Ni, Finn Carter, Ze Niu, Emily Davis, Bo Zhang,
- Abstract要約: 強力な拡散ベースの画像生成と編集技術は、堅牢なウォーターマーキングスキームに新たな脅威をもたらす。
拡散駆動型画像再生プロセスでは,画像内容の保存中に埋め込み透かしを消去できることを示す。
生成中の透かし信号に特異的な誘導拡散攻撃を導入し,透かし検出性を著しく低下させた。
- 参考スコア(独自算出の注目度): 4.273350357872755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robust invisible watermarking aims to embed hidden information into images such that the watermark can survive various image manipulations. However, the rise of powerful diffusion-based image generation and editing techniques poses a new threat to these watermarking schemes. In this paper, we present a theoretical study and method demonstrating that diffusion models can effectively break robust image watermarks that were designed to resist conventional perturbations. We show that a diffusion-driven ``image regeneration'' process can erase embedded watermarks while preserving perceptual image content. We further introduce a novel guided diffusion attack that explicitly targets the watermark signal during generation, significantly degrading watermark detectability. Theoretically, we prove that as an image undergoes sufficient diffusion-based transformation, the mutual information between the watermarked image and the embedded watermark payload vanishes, resulting in decoding failure. Experimentally, we evaluate our approach on multiple state-of-the-art watermarking schemes (including the deep learning-based methods StegaStamp, TrustMark, and VINE) and demonstrate near-zero watermark recovery rates after attack, while maintaining high visual fidelity of the regenerated images. Our findings highlight a fundamental vulnerability in current robust watermarking techniques against generative model-based attacks, underscoring the need for new watermarking strategies in the era of generative AI.
- Abstract(参考訳): 目に見えない透かしは、透かしが様々な画像操作に耐えられるように、隠された情報を画像に埋め込むことを目的としている。
しかし、強力な拡散ベースの画像生成と編集技術の台頭は、これらの透かしスキームに新たな脅威をもたらす。
本稿では,拡散モデルが従来の摂動に抵抗するように設計された頑健な画像透かしを効果的に破ることができることを示す理論的研究と手法を提案する。
拡散駆動型「画像再生」プロセスは、知覚的画像内容を保持しながら埋め込みした透かしを消去できることを示す。
さらに、生成中の透かし信号に的を絞った新しい誘導拡散攻撃を導入し、透かし検出性を著しく低下させる。
理論的には、画像が十分な拡散に基づく変換を受けると、透かし画像と埋め込み透かしペイロードの相互情報は消滅し、復号が失敗する。
実験により,複数の最先端透かし方式(StegaStamp,TrustMark,VINEを含む深層学習手法)について,画像の高視認性を維持しつつ,攻撃後のほぼゼロに近い透かし回復率を示す。
我々の発見は、生成型AIの時代における新しい透かし戦略の必要性を浮き彫りにして、生成型モデルに基づく攻撃に対する現在の堅牢な透かし技術における根本的な脆弱性を浮き彫りにした。
関連論文リスト
- Optimization-Free Universal Watermark Forgery with Regenerative Diffusion Models [50.73220224678009]
ウォーターマーキングは、人工知能モデルによって生成された合成画像の起源を検証するために使用できる。
近年の研究では, 対象画像から表層画像への透かしを, 対角的手法を用いてフォージできることが示されている。
本稿では,最適化フリーで普遍的な透かし偽造のリスクが大きいことを明らかにする。
我々のアプローチは攻撃範囲を大きく広げ、現在の透かし技術の安全性により大きな課題をもたらす。
論文 参考訳(メタデータ) (2025-06-06T12:08:02Z) - SEAL: Semantic Aware Image Watermarking [26.606008778795193]
本稿では,生成した画像のセマンティック情報を透かしに直接埋め込む新しい透かし手法を提案する。
キーパターンは、局所性に敏感なハッシュを用いて画像のセマンティック埋め込みから推測することができる。
以上の結果から,画像生成モデルによるリスクを軽減できる可能性が示唆された。
論文 参考訳(メタデータ) (2025-03-15T15:29:05Z) - JIGMARK: A Black-Box Approach for Enhancing Image Watermarks against Diffusion Model Edits [76.25962336540226]
JIGMARKは、コントラスト学習による堅牢性を高める、第一級の透かし技術である。
本評価の結果,JIGMARKは既存の透かし法をはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2024-06-06T03:31:41Z) - Robustness of AI-Image Detectors: Fundamental Limits and Practical
Attacks [47.04650443491879]
我々は、透かしやディープフェイク検出器を含む様々なAI画像検出器の堅牢性を分析する。
ウォーターマーキング手法は,攻撃者が実際の画像をウォーターマーキングとして識別することを目的としたスプーフ攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2023-09-29T18:30:29Z) - Invisible Image Watermarks Are Provably Removable Using Generative AI [47.25747266531665]
Invisibleの透かしは、所有者によってのみ検出可能な隠されたメッセージを埋め込むことで、画像の著作権を保護する。
我々は、これらの見えない透かしを取り除くために、再生攻撃のファミリーを提案する。
提案手法は,まず画像にランダムノイズを加えて透かしを破壊し,画像を再構成する。
論文 参考訳(メタデータ) (2023-06-02T23:29:28Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。