論文の概要: WMCopier: Forging Invisible Image Watermarks on Arbitrary Images
- arxiv url: http://arxiv.org/abs/2503.22330v2
- Date: Sun, 18 May 2025 14:52:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.558546
- Title: WMCopier: Forging Invisible Image Watermarks on Arbitrary Images
- Title(参考訳): WMCopier: 任意画像に見えない画像の透かしを作る
- Authors: Ziping Dong, Chao Shuai, Zhongjie Ba, Peng Cheng, Zhan Qin, Qinglong Wang, Kui Ren,
- Abstract要約: 目的の透かしアルゴリズムの事前知識やアクセスを必要とせず,有効な透かし偽造攻撃であるWMCopierを提案する。
提案手法はまず,無条件拡散モデルを用いて対象の透かし分布をモデル化し,次いで,対象の透かしを非透かし画像にシームレスに埋め込む。
実験の結果、WMCopierはオープンソースとクローズドソースの両方の透かしシステムを効果的に騙していることがわかった。
- 参考スコア(独自算出の注目度): 21.17890218813236
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Invisible Image Watermarking is crucial for ensuring content provenance and accountability in generative AI. While Gen-AI providers are increasingly integrating invisible watermarking systems, the robustness of these schemes against forgery attacks remains poorly characterized. This is critical, as forging traceable watermarks onto illicit content leads to false attribution, potentially harming the reputation and legal standing of Gen-AI service providers who are not responsible for the content. In this work, we propose WMCopier, an effective watermark forgery attack that operates without requiring any prior knowledge of or access to the target watermarking algorithm. Our approach first models the target watermark distribution using an unconditional diffusion model, and then seamlessly embeds the target watermark into a non-watermarked image via a shallow inversion process. We also incorporate an iterative optimization procedure that refines the reconstructed image to further trade off the fidelity and forgery efficiency. Experimental results demonstrate that WMCopier effectively deceives both open-source and closed-source watermark systems (e.g., Amazon's system), achieving a significantly higher success rate than existing methods. Additionally, we evaluate the robustness of forged samples and discuss the potential defenses against our attack.
- Abstract(参考訳): Invisible Image Watermarkingは、生成AIにおけるコンテンツの証明と説明責任を保証するために不可欠である。
Gen-AIプロバイダは、目に見えない透かしシステムを統合する傾向にあるが、偽造攻撃に対するこれらのスキームの堅牢性は、いまだに不十分である。
トレーサブルな透かしを不正なコンテンツに偽造することで、コンテンツに責任を持たないGen-AIサービスプロバイダの評判と法的地位を損なう恐れがある。
本研究では,WMCopierを提案する。WMCopierは,標的の透かしアルゴリズムに事前の知識やアクセスを必要とせずに動作する,効果的な透かし偽造攻撃である。
提案手法は,まず非条件拡散モデルを用いて対象の透かし分布をモデル化し,次いで浅い逆転法により対象の透かしを非透かし画像にシームレスに埋め込む。
また、再構成された画像を洗練し、忠実度と偽造効率をさらに引き離す反復最適化手法も組み込んだ。
実験の結果、WMCopierはオープンソースとクローズドソースの両方の透かしシステム(例えばAmazonのシステム)を効果的に騙し、既存の手法よりもはるかに高い成功率を達成した。
さらに, 鍛造標本の堅牢性を評価し, 攻撃に対する防御の可能性について検討した。
関連論文リスト
- Robust Watermarks Leak: Channel-Aware Feature Extraction Enables Adversarial Watermark Manipulation [21.41643665626451]
本稿では,事前学習された視覚モデルを用いて,透かしパターンの漏洩を抽出する攻撃フレームワークを提案する。
大量のデータや検出器のアクセスを必要とする従来の作業とは異なり,本手法は1つの透かし画像による偽造と検出の両方を達成している。
現在の"ロバスト"な透かしは、歪み抵抗に対するセキュリティを犠牲にして、将来の透かし設計の洞察を与えます。
論文 参考訳(メタデータ) (2025-02-10T12:55:08Z) - ROBIN: Robust and Invisible Watermarks for Diffusion Models with Adversarial Optimization [15.570148419846175]
既存の透かし手法は、堅牢性と隠蔽のバランスをとるという課題に直面している。
本稿では, 透かしを積極的に隠蔽し, より強力な透かしの埋め込みを可能にするための透かし隠蔽法を提案する。
様々な拡散モデルの実験では、画像改ざんであっても透かしが検証可能であることが示されている。
論文 参考訳(メタデータ) (2024-11-06T12:14:23Z) - An Undetectable Watermark for Generative Image Models [65.31658824274894]
生成画像モデルに対する検出不能な最初の透かし方式を提案する。
特に、検出不能な透かしは、効率的に計算可能なメートル法で画質を劣化させることはない。
提案手法は,擬似乱数誤り訂正符号を用いて拡散モデルの初期潜時間を選択する。
論文 参考訳(メタデータ) (2024-10-09T18:33:06Z) - Certifiably Robust Image Watermark [57.546016845801134]
ジェネレーティブAIは、偽情報やプロパガンダキャンペーンの促進など、多くの社会的懸念を提起する。
ウォーターマークAI生成コンテンツは、これらの懸念に対処するための重要な技術である。
本報告では, 除去・偽造攻撃に対するロバスト性保証を保証した最初の画像透かしを提案する。
論文 参考訳(メタデータ) (2024-07-04T17:56:04Z) - Latent Watermark: Inject and Detect Watermarks in Latent Diffusion Space [7.082806239644562]
既存の手法は、画質と透かしの堅牢性のジレンマに直面している。
画像品質の優れた透かしは通常、ぼやけやJPEG圧縮のような攻撃に対して弱い堅牢性を持つ。
本稿では,潜伏拡散空間内の透かしを注入し,検出する潜伏透かしを提案する。
論文 参考訳(メタデータ) (2024-03-30T03:19:50Z) - RAW: A Robust and Agile Plug-and-Play Watermark Framework for AI-Generated Images with Provable Guarantees [33.61946642460661]
本稿ではRAWと呼ばれる堅牢でアジャイルな透かし検出フレームワークを紹介する。
我々は、透かしの存在を検出するために、透かしと共同で訓練された分類器を用いる。
このフレームワークは,透かし画像の誤分類に対する偽陽性率に関する証明可能な保証を提供する。
論文 参考訳(メタデータ) (2024-01-23T22:00:49Z) - Robustness of AI-Image Detectors: Fundamental Limits and Practical
Attacks [47.04650443491879]
我々は、透かしやディープフェイク検出器を含む様々なAI画像検出器の堅牢性を分析する。
ウォーターマーキング手法は,攻撃者が実際の画像をウォーターマーキングとして識別することを目的としたスプーフ攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2023-09-29T18:30:29Z) - Unbiased Watermark for Large Language Models [67.43415395591221]
本研究では, モデル生成出力の品質に及ぼす透かしの影響について検討した。
出力確率分布に影響を与えることなく、透かしを統合することができる。
ウォーターマークの存在は、下流タスクにおけるモデルの性能を損なうものではない。
論文 参考訳(メタデータ) (2023-09-22T12:46:38Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。