論文の概要: Invisible Image Watermarks Are Provably Removable Using Generative AI
- arxiv url: http://arxiv.org/abs/2306.01953v2
- Date: Sun, 6 Aug 2023 17:17:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 22:41:39.543100
- Title: Invisible Image Watermarks Are Provably Removable Using Generative AI
- Title(参考訳): 見えない画像の透かしは、生成AIを使って取り除くことができる
- Authors: Xuandong Zhao, Kexun Zhang, Zihao Su, Saastha Vasan, Ilya Grishchenko,
Christopher Kruegel, Giovanni Vigna, Yu-Xiang Wang, Lei Li
- Abstract要約: Invisibleの透かしは、所有者によってのみ検出可能な隠されたメッセージを埋め込むことで、画像の著作権を保護する。
我々は、これらの見えない透かしを取り除くために、再生攻撃のファミリーを提案する。
すべての見えない透かしは、提案された攻撃に対して脆弱であることを示す。
- 参考スコア(独自算出の注目度): 35.868455860678935
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Invisible watermarks safeguard images' copyright by embedding hidden messages
only detectable by owners. They also prevent people from misusing images,
especially those generated by AI models. We propose a family of regeneration
attacks to remove these invisible watermarks. The proposed attack method first
adds random noise to an image to destroy the watermark and then reconstructs
the image. This approach is flexible and can be instantiated with many existing
image-denoising algorithms and pre-trained generative models such as diffusion
models. Through formal proofs and empirical results, we show that all invisible
watermarks are vulnerable to the proposed attack. For a particularly resilient
watermark, RivaGAN, regeneration attacks remove 93-99% of the invisible
watermarks while the baseline attacks remove no more than 3%. However, if we do
not require the watermarked image to look the same as the original one,
watermarks that keep the image semantically similar can be an alternative
defense against our attack. Our finding underscores the need for a shift in
research/industry emphasis from invisible watermarks to semantically similar
ones. Code is available at https://github.com/XuandongZhao/WatermarkAttacker.
- Abstract(参考訳): Invisibleの透かしは、所有者によってのみ検出可能な隠しメッセージを埋め込むことで、画像の著作権を保護する。
また、画像、特にAIモデルによる画像の誤使用を防ぐ。
我々は、これらの見えない透かしを取り除くために、再生攻撃のファミリーを提案する。
提案手法では,まず画像にランダムノイズを付加して透かしを破壊し,画像を再構成する。
このアプローチは柔軟であり、既存の多くの画像デニュージングアルゴリズムや拡散モデルのような事前学習された生成モデルでインスタンス化することができる。
公式な証明と実証的な結果から、すべての見えない透かしが提案された攻撃に対して脆弱であることを示す。
特に弾力性のあるウォーターマークであるリバガンでは、再生攻撃は目に見えないウォーターマークの93-99%を除去し、ベースライン攻撃は3%以下を除去した。
しかし、透かし画像が元のものと同じに見える必要がなければ、画像のセマンティックな類似性を維持する透かしは、我々の攻撃に対する代替の防御になり得る。
我々の発見は、目に見えない透かしから意味的に類似したものへの研究・産業の転換の必要性を浮き彫りにしている。
コードはhttps://github.com/xuandongzhao/watermarkattackerで入手できる。
関連論文リスト
- An undetectable watermark for generative image models [65.31658824274894]
生成画像モデルに対する検出不能な最初の透かし方式を提案する。
特に、検出不能な透かしは、効率的に計算可能なメートル法で画質を劣化させることはない。
提案手法は,擬似乱数誤り訂正符号を用いて拡散モデルの初期潜時間を選択する。
論文 参考訳(メタデータ) (2024-10-09T18:33:06Z) - Certifiably Robust Image Watermark [57.546016845801134]
ジェネレーティブAIは、偽情報やプロパガンダキャンペーンの促進など、多くの社会的懸念を提起する。
ウォーターマークAI生成コンテンツは、これらの懸念に対処するための重要な技術である。
本報告では, 除去・偽造攻撃に対するロバスト性保証を保証した最初の画像透かしを提案する。
論文 参考訳(メタデータ) (2024-07-04T17:56:04Z) - UnMarker: A Universal Attack on Defensive Image Watermarking [4.013156524547072]
防衛的な透かしに対する最初の実践的普遍的な攻撃であるUnMarkerを紹介します。
UnMarkerは検出器のフィードバックを必要とせず、透かしスキームや類似したモデルに関する非現実的な知識も必要とせず、先進的な復調パイプラインも必要としない。
SOTAスキームに対する評価は、UnMarkerの有効性を証明する。
論文 参考訳(メタデータ) (2024-05-14T07:05:18Z) - RAW: A Robust and Agile Plug-and-Play Watermark Framework for AI-Generated Images with Provable Guarantees [33.61946642460661]
本稿ではRAWと呼ばれる堅牢でアジャイルな透かし検出フレームワークを紹介する。
我々は、透かしの存在を検出するために、透かしと共同で訓練された分類器を用いる。
このフレームワークは,透かし画像の誤分類に対する偽陽性率に関する証明可能な保証を提供する。
論文 参考訳(メタデータ) (2024-01-23T22:00:49Z) - Robustness of AI-Image Detectors: Fundamental Limits and Practical
Attacks [47.04650443491879]
我々は、透かしやディープフェイク検出器を含む様々なAI画像検出器の堅牢性を分析する。
ウォーターマーキング手法は,攻撃者が実際の画像をウォーターマーキングとして識別することを目的としたスプーフ攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2023-09-29T18:30:29Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。