論文の概要: Forging and Removing Latent-Noise Diffusion Watermarks Using a Single Image
- arxiv url: http://arxiv.org/abs/2504.20111v1
- Date: Sun, 27 Apr 2025 18:29:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.599162
- Title: Forging and Removing Latent-Noise Diffusion Watermarks Using a Single Image
- Title(参考訳): 単一画像を用いた遅延雑音拡散透かしの鍛造と除去
- Authors: Anubhav Jain, Yuya Kobayashi, Naoki Murata, Yuhta Takida, Takashi Shibuya, Yuki Mitsufuji, Niv Cohen, Nasir Memon, Julian Togelius,
- Abstract要約: 従来の透かし方式は、初期ノイズに秘密鍵を埋め込む。
拡散モデルウェイトへのアクセスを前提としないブラックボックス逆襲攻撃を提案する。
また,この領域を抜け出すために摂動を学習することで,透かし除去にも同様のアプローチが適用可能であることを示す。
- 参考スコア(独自算出の注目度): 24.513881574366046
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Watermarking techniques are vital for protecting intellectual property and preventing fraudulent use of media. Most previous watermarking schemes designed for diffusion models embed a secret key in the initial noise. The resulting pattern is often considered hard to remove and forge into unrelated images. In this paper, we propose a black-box adversarial attack without presuming access to the diffusion model weights. Our attack uses only a single watermarked example and is based on a simple observation: there is a many-to-one mapping between images and initial noises. There are regions in the clean image latent space pertaining to each watermark that get mapped to the same initial noise when inverted. Based on this intuition, we propose an adversarial attack to forge the watermark by introducing perturbations to the images such that we can enter the region of watermarked images. We show that we can also apply a similar approach for watermark removal by learning perturbations to exit this region. We report results on multiple watermarking schemes (Tree-Ring, RingID, WIND, and Gaussian Shading) across two diffusion models (SDv1.4 and SDv2.0). Our results demonstrate the effectiveness of the attack and expose vulnerabilities in the watermarking methods, motivating future research on improving them.
- Abstract(参考訳): 透かし技術は知的財産の保護とメディアの不正使用を防ぐために不可欠である。
拡散モデルのために設計された従来の透かしスキームは、初期ノイズに秘密鍵を埋め込んでいた。
結果として得られるパターンは、しばしば、無関係な画像を取り除いてフォージするのは難しいと考えられている。
本稿では,拡散モデルウェイトへのアクセスを前提とせず,ブラックボックス攻撃を提案する。
我々の攻撃は、単一の透かしの例しか使用せず、単純な観察に基づいており、画像と初期雑音の間には、多対一のマッピングがある。
清浄な画像潜伏空間には各透かしに関連する領域があり、逆転すると同じ初期雑音にマッピングされる。
この直感に基づいて、透かし画像の領域に摂動を導入し、透かしをフォージする逆襲攻撃を提案する。
また,この領域を抜け出すために摂動を学習することで,透かし除去にも同様のアプローチが適用可能であることを示す。
本稿では,2つの拡散モデル (SDv1.4 と SDv2.0) における複数の透かし方式 (Tree-Ring, RingID, WIND, Gaussian Shading) について報告する。
本研究は,攻撃の有効性を実証し,透かし手法の脆弱性を露呈し,それを改善するための今後の研究を動機づけるものである。
関連論文リスト
- SEAL: Semantic Aware Image Watermarking [26.606008778795193]
本稿では,生成した画像のセマンティック情報を透かしに直接埋め込む新しい透かし手法を提案する。
キーパターンは、局所性に敏感なハッシュを用いて画像のセマンティック埋め込みから推測することができる。
以上の結果から,画像生成モデルによるリスクを軽減できる可能性が示唆された。
論文 参考訳(メタデータ) (2025-03-15T15:29:05Z) - Hidden in the Noise: Two-Stage Robust Watermarking for Images [25.731533630250798]
拡散モデルの初期雑音に基づく画像の歪みのない透かし手法を提案する。
透かしを検出するには、画像のために再構成された初期ノイズと、以前に使用した初期ノイズとを比較する必要がある。
本稿では,効率的な検出を行うための2段階の透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-05T22:50:42Z) - Black-Box Forgery Attacks on Semantic Watermarks for Diffusion Models [16.57738116313139]
攻撃者は、異なる潜在空間やアーキテクチャであっても、無関係なモデルを利用して、強力で現実的な偽造攻撃を行うことができることを示す。
第1は、対象の透かしを実画像に印字し、無関係のLCMにおいて任意の画像の潜在表現を操作する。
第2の攻撃は、透かし画像を反転させて任意のプロンプトで再生することにより、目標の透かしで新たな画像を生成する。
論文 参考訳(メタデータ) (2024-12-04T12:57:17Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Invisible Image Watermarks Are Provably Removable Using Generative AI [47.25747266531665]
Invisibleの透かしは、所有者によってのみ検出可能な隠されたメッセージを埋め込むことで、画像の著作権を保護する。
我々は、これらの見えない透かしを取り除くために、再生攻撃のファミリーを提案する。
提案手法は,まず画像にランダムノイズを加えて透かしを破壊し,画像を再構成する。
論文 参考訳(メタデータ) (2023-06-02T23:29:28Z) - Tree-Ring Watermarks: Fingerprints for Diffusion Images that are
Invisible and Robust [55.91987293510401]
生成モデルのアウトプットを透かしは、著作権をトレースし、AI生成コンテンツによる潜在的な害を防ぐ重要なテクニックである。
本稿では,拡散モデル出力を頑健にフィンガープリントするTree-Ring Watermarkingという新しい手法を提案する。
私たちの透かしは画像空間に意味的に隠れており、現在デプロイされている透かしよりもはるかに堅牢です。
論文 参考訳(メタデータ) (2023-05-31T17:00:31Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Split then Refine: Stacked Attention-guided ResUNets for Blind Single
Image Visible Watermark Removal [69.92767260794628]
従来の透かし除去方法は,ユーザから透かしの位置を取得したり,マルチタスクネットワークをトレーニングして,背景を無差別に復元する必要があった。
本稿では,注目誘導型ResUNetsを積み重ねた新しい2段階フレームワークを提案し,検出・除去・精錬の過程をシミュレートする。
様々な条件下で4つの異なるデータセット上でアルゴリズムを広範囲に評価し,その手法が他の最先端手法をはるかに上回っていることを示す実験を行った。
論文 参考訳(メタデータ) (2020-12-13T09:05:37Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。