論文の概要: UnMarker: A Universal Attack on Defensive Image Watermarking
- arxiv url: http://arxiv.org/abs/2405.08363v2
- Date: Fri, 22 Nov 2024 17:56:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-25 15:02:04.283542
- Title: UnMarker: A Universal Attack on Defensive Image Watermarking
- Title(参考訳): UnMarker: 防犯画像の透かしに対するユニバーサルな攻撃
- Authors: Andre Kassis, Urs Hengartner,
- Abstract要約: 防衛的な透かしに対する最初の実践的普遍的な攻撃であるUnMarkerを紹介します。
UnMarkerは検出器のフィードバックを必要とせず、透かしスキームや類似したモデルに関する非現実的な知識も必要とせず、先進的な復調パイプラインも必要としない。
SOTAスキームに対する評価は、UnMarkerの有効性を証明する。
- 参考スコア(独自算出の注目度): 4.013156524547072
- License:
- Abstract: Reports regarding the misuse of Generative AI (GenAI) to create deepfakes are frequent. Defensive watermarking enables GenAI providers to hide fingerprints in their images and use them later for deepfake detection. Yet, its potential has not been fully explored. We present UnMarker -- the first practical universal attack on defensive watermarking. Unlike existing attacks, UnMarker requires no detector feedback, no unrealistic knowledge of the watermarking scheme or similar models, and no advanced denoising pipelines that may not be available. Instead, being the product of an in-depth analysis of the watermarking paradigm revealing that robust schemes must construct their watermarks in the spectral amplitudes, UnMarker employs two novel adversarial optimizations to disrupt the spectra of watermarked images, erasing the watermarks. Evaluations against SOTA schemes prove UnMarker's effectiveness. It not only defeats traditional schemes while retaining superior quality compared to existing attacks but also breaks semantic watermarks that alter an image's structure, reducing the best detection rate to $43\%$ and rendering them useless. To our knowledge, UnMarker is the first practical attack on semantic watermarks, which have been deemed the future of defensive watermarking. Our findings show that defensive watermarking is not a viable defense against deepfakes, and we urge the community to explore alternatives.
- Abstract(参考訳): ディープフェイクを作成するためのジェネレーティブAI(GenAI)の誤用に関する報告は頻繁に行われる。
防犯透かしにより、GenAIプロバイダは画像に指紋を隠して後から深度検出に使用することができる。
しかし、その可能性は完全には調査されていない。
防衛的な透かしに対する最初の実践的普遍的な攻撃であるUnMarkerを紹介します。
既存の攻撃とは異なり、UnMarkerは検出器のフィードバックを必要とせず、ウォーターマーキングスキームや同様のモデルに関する非現実的な知識も必要とせず、利用できない可能性のある高度なデノイングパイプラインも必要としない。
代わりに、強いスキームがスペクトル振幅で透かしを構築する必要があることを示す透かしパラダイムの詳細な分析の産物として、UnMarkerは透かし画像のスペクトルを乱し、透かしを消去するために2つの新しい逆最適化を用いる。
SOTAスキームに対する評価は、UnMarkerの有効性を証明する。
既存の攻撃よりも優れた品質を維持しながら、従来のスキームを破るだけでなく、画像の構造を変えるセマンティックな透かしを破り、最高の検出レートを43\%に下げ、それらを役に立たないようにします。
我々の知る限り、UnMarkerはセマンティックな透かしに対する最初の実用的な攻撃であり、防御的な透かしの未来と見なされてきた。
以上の結果から,防水透かしはディープフェイク対策として有効ではないことが示唆された。
関連論文リスト
- An undetectable watermark for generative image models [65.31658824274894]
生成画像モデルに対する検出不能な最初の透かし方式を提案する。
特に、検出不能な透かしは、効率的に計算可能なメートル法で画質を劣化させることはない。
提案手法は,擬似乱数誤り訂正符号を用いて拡散モデルの初期潜時間を選択する。
論文 参考訳(メタデータ) (2024-10-09T18:33:06Z) - Certifiably Robust Image Watermark [57.546016845801134]
ジェネレーティブAIは、偽情報やプロパガンダキャンペーンの促進など、多くの社会的懸念を提起する。
ウォーターマークAI生成コンテンツは、これらの懸念に対処するための重要な技術である。
本報告では, 除去・偽造攻撃に対するロバスト性保証を保証した最初の画像透かしを提案する。
論文 参考訳(メタデータ) (2024-07-04T17:56:04Z) - Are Watermarks Bugs for Deepfake Detectors? Rethinking Proactive Forensics [14.596038695008403]
現在の透かしモデルは、もともと本物の画像のために考案されたもので、偽造画像に直接適用した場合、デプロイされたディープフェイク検出器に害を与える可能性があると我々は主張する。
本稿では,能動的法医学を代表としてAdvMarkを提案し,受動検出器の対角的脆弱性を有効に活用する。
論文 参考訳(メタデータ) (2024-04-27T11:20:49Z) - A Transfer Attack to Image Watermarks [1.656188668325832]
本研究では,Non-box設定における画像透かしに対する新しい転送回避攻撃を提案する。
私たちの主な貢献は、理論的にも経験的にも、透かしベースのAI生成画像検出器は、回避攻撃に対して堅牢ではないことを示すことです。
論文 参考訳(メタデータ) (2024-03-22T17:33:11Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Invisible Image Watermarks Are Provably Removable Using Generative AI [47.25747266531665]
Invisibleの透かしは、所有者によってのみ検出可能な隠されたメッセージを埋め込むことで、画像の著作権を保護する。
我々は、これらの見えない透かしを取り除くために、再生攻撃のファミリーを提案する。
提案手法は,まず画像にランダムノイズを加えて透かしを破壊し,画像を再構成する。
論文 参考訳(メタデータ) (2023-06-02T23:29:28Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。