論文の概要: UnMarker: A Universal Attack on Defensive Watermarking
- arxiv url: http://arxiv.org/abs/2405.08363v1
- Date: Tue, 14 May 2024 07:05:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-15 14:48:16.232722
- Title: UnMarker: A Universal Attack on Defensive Watermarking
- Title(参考訳): UnMarker: 防御的な透かしに対するユニバーサルな攻撃
- Authors: Andre Kassis, Urs Hengartner,
- Abstract要約: 私たちは、最初の実用的な$textituniversal$攻撃である$textitUnMarker$を提示します。
既存の攻撃とは異なり、textitUnMarker$は検出器のフィードバックを必要とせず、スキームや同様のモデルの非現実的な知識も必要とせず、利用できない可能性のある高度なデノゲーションパイプラインも不要である。
- 参考スコア(独自算出の注目度): 4.013156524547072
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reports regarding the misuse of $\textit{Generative AI}$ ($\textit{GenAI}$) to create harmful deepfakes are emerging daily. Recently, defensive watermarking, which enables $\textit{GenAI}$ providers to hide fingerprints in their images to later use for deepfake detection, has been on the rise. Yet, its potential has not been fully explored. We present $\textit{UnMarker}$ -- the first practical $\textit{universal}$ attack on defensive watermarking. Unlike existing attacks, $\textit{UnMarker}$ requires no detector feedback, no unrealistic knowledge of the scheme or similar models, and no advanced denoising pipelines that may not be available. Instead, being the product of an in-depth analysis of the watermarking paradigm revealing that robust schemes must construct their watermarks in the spectral amplitudes, $\textit{UnMarker}$ employs two novel adversarial optimizations to disrupt the spectra of watermarked images, erasing the watermarks. Evaluations against the $\textit{SOTA}$ prove its effectiveness, not only defeating traditional schemes while retaining superior quality compared to existing attacks but also breaking $\textit{semantic}$ watermarks that alter the image's structure, reducing the best detection rate to $43\%$ and rendering them useless. To our knowledge, $\textit{UnMarker}$ is the first practical attack on $\textit{semantic}$ watermarks, which have been deemed the future of robust watermarking. $\textit{UnMarker}$ casts doubts on the very penitential of this countermeasure and exposes its paradoxical nature as designing schemes for robustness inevitably compromises other robustness aspects.
- Abstract(参考訳): 有害なディープフェイクを作成するために$\textit{Generative AI}$$$\textit{GenAI}$)の誤用に関する報告が毎日現れている。
最近、画像に指紋を隠すための$\textit{GenAI}$プロバイダで、ディープフェイク検出に使用される防衛用透かしが増えている。
しかし、その可能性は完全には調査されていない。
私たちは$\textit{UnMarker}$ -- 最初の実用的な$\textit{Universal}$で防御的な透かしを攻撃します。
既存の攻撃とは異なり、$\textit{UnMarker}$は検出器のフィードバックを必要とせず、スキームや類似モデルに関する非現実的な知識も必要とせず、利用できない可能性のある高度なデノゲーションパイプラインも不要である。
代わりに、強いスキームがスペクトル振幅でそれらの透かしを構築する必要があることを示す透かしパラダイムの詳細な分析の産物として、$\textit{UnMarker}$は透かし画像のスペクトルを乱し、透かしを消去するために2つの新しい逆最適化を用いる。
$\textit{SOTA}$に対する評価は、既存の攻撃よりも優れた品質を維持しながら従来のスキームを破るだけでなく、画像の構造を変える$\textit{semantic}$の透かしを破り、最高の検出レートを43\%に下げ、役に立たない。
我々の知る限り、$\textit{UnMarker}$は$\textit{semantic}$ watermarksに対する最初の実用的な攻撃である。
$\textit{UnMarker}$ casts doubts on the very penitential of this countermeasure and reveals its paradoxical nature as designs for robustness inevitible compromises other robustness aspects。
関連論文リスト
- An undetectable watermark for generative image models [65.31658824274894]
生成画像モデルに対する検出不能な最初の透かし方式を提案する。
特に、検出不能な透かしは、効率的に計算可能なメートル法で画質を劣化させることはない。
提案手法は,擬似乱数誤り訂正符号を用いて拡散モデルの初期潜時間を選択する。
論文 参考訳(メタデータ) (2024-10-09T18:33:06Z) - Certifiably Robust Image Watermark [57.546016845801134]
ジェネレーティブAIは、偽情報やプロパガンダキャンペーンの促進など、多くの社会的懸念を提起する。
ウォーターマークAI生成コンテンツは、これらの懸念に対処するための重要な技術である。
本報告では, 除去・偽造攻撃に対するロバスト性保証を保証した最初の画像透かしを提案する。
論文 参考訳(メタデータ) (2024-07-04T17:56:04Z) - Are Watermarks Bugs for Deepfake Detectors? Rethinking Proactive Forensics [14.596038695008403]
現在の透かしモデルは、もともと本物の画像のために考案されたもので、偽造画像に直接適用した場合、デプロイされたディープフェイク検出器に害を与える可能性があると我々は主張する。
本稿では,能動的法医学を代表としてAdvMarkを提案し,受動検出器の対角的脆弱性を有効に活用する。
論文 参考訳(メタデータ) (2024-04-27T11:20:49Z) - A Transfer Attack to Image Watermarks [1.656188668325832]
本研究では,Non-box設定における画像透かしに対する新しい転送回避攻撃を提案する。
私たちの主な貢献は、理論的にも経験的にも、透かしベースのAI生成画像検出器は、回避攻撃に対して堅牢ではないことを示すことです。
論文 参考訳(メタデータ) (2024-03-22T17:33:11Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Invisible Image Watermarks Are Provably Removable Using Generative AI [47.25747266531665]
Invisibleの透かしは、所有者によってのみ検出可能な隠されたメッセージを埋め込むことで、画像の著作権を保護する。
我々は、これらの見えない透かしを取り除くために、再生攻撃のファミリーを提案する。
提案手法は,まず画像にランダムノイズを加えて透かしを破壊し,画像を再構成する。
論文 参考訳(メタデータ) (2023-06-02T23:29:28Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。