論文の概要: DeMark: A Query-Free Black-Box Attack on Deepfake Watermarking Defenses
- arxiv url: http://arxiv.org/abs/2601.16473v1
- Date: Fri, 23 Jan 2026 06:04:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.562726
- Title: DeMark: A Query-Free Black-Box Attack on Deepfake Watermarking Defenses
- Title(参考訳): DeMark:ディープフェイクウォーターマーキング防衛に対するクエリフリーのブラックボックス攻撃
- Authors: Wei Song, Zhenchang Xing, Liming Zhu, Yulei Sui, Jingling Xue,
- Abstract要約: DeMarkは、ディープフェイクの防御的なイメージ透かしスキームをターゲットにした、クエリフリーのブラックボックスアタックフレームワークである。
エンコーダ・デコーダ・ウォーターマーキングモデルにおける潜時空間の脆弱性を圧縮センシングに基づくスペーシフィケーションプロセスにより活用する。
DeMarkは、透かし検出の精度を、自然の視覚的品質を維持しながら、平均で100%から32.9%に下げる。
- 参考スコア(独自算出の注目度): 25.492274324587058
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The rapid proliferation of realistic deepfakes has raised urgent concerns over their misuse, motivating the use of defensive watermarks in synthetic images for reliable detection and provenance tracking. However, this defense paradigm assumes such watermarks are inherently resistant to removal. We challenge this assumption with DeMark, a query-free black-box attack framework that targets defensive image watermarking schemes for deepfakes. DeMark exploits latent-space vulnerabilities in encoder-decoder watermarking models through a compressive sensing based sparsification process, suppressing watermark signals while preserving perceptual and structural realism appropriate for deepfakes. Across eight state-of-the-art watermarking schemes, DeMark reduces watermark detection accuracy from 100% to 32.9% on average while maintaining natural visual quality, outperforming existing attacks. We further evaluate three defense strategies, including image super resolution, sparse watermarking, and adversarial training, and find them largely ineffective. These results demonstrate that current encoder decoder watermarking schemes remain vulnerable to latent-space manipulations, underscoring the need for more robust watermarking methods to safeguard against deepfakes.
- Abstract(参考訳): 現実的なディープフェイクの急速な普及は、それらの誤用に対する緊急の懸念を引き起こし、信頼性の高い検出と前兆追跡のために合成画像に防御用透かしの使用を動機付けている。
しかし、この防御パラダイムは、このような透かしは本質的に除去に耐性があると仮定している。
DeMarkは、ディープフェイクの防御画像透かしスキームをターゲットにした、クエリフリーのブラックボックスアタックフレームワークである。
DeMarkは、エンコーダ・デコーダの透かしモデルにおける潜時的脆弱性を圧縮センシングに基づくスペーシングプロセスを通じて利用し、ディープフェイクに適した知覚的および構造的リアリズムを維持しながら透かし信号を抑制する。
8つの最先端の透かしスキームの中で、DeMarkは透かし検出の精度を100%から32.9%に減らし、自然の視覚的品質を維持し、既存の攻撃よりも優れていた。
さらに,画像超解像,スパース透かし,対人訓練を含む3つの防衛戦略を評価し,その有効性について検討した。
これらの結果は、現在のエンコーダデコーダの透かし方式が潜時空間操作に弱いままであり、ディープフェイク対策のためのより堅牢な透かし方式の必要性を浮き彫りにしている。
関連論文リスト
- IConMark: Robust Interpretable Concept-Based Watermark For AI Images [50.045011844765185]
我々は,新しい世代のロバストなセマンティックな透かし法であるIConMarkを提案する。
IConMarkは、解釈可能な概念をAI生成イメージに組み込み、敵の操作に耐性を持たせる。
我々は、検出精度と画質の維持の観点から、その優位性を実証する。
論文 参考訳(メタデータ) (2025-07-17T05:38:30Z) - When There Is No Decoder: Removing Watermarks from Stable Diffusion Models in a No-box Setting [37.85082375268253]
本研究では,透かしの埋め込みをテキスト・ツー・イメージ生成と組み合わせたモデル固有透かしの堅牢性について検討する。
我々は、エッジ予測ベースの3つの攻撃戦略、ボックスのぼかし、ノーボックス設定で微調整ベースの攻撃を導入する。
我々の最高の攻撃は、透かし検出精度を約47.92%に低下させる。
論文 参考訳(メタデータ) (2025-07-04T15:22:20Z) - WMCopier: Forging Invisible Image Watermarks on Arbitrary Images [38.59295440296696]
目的の透かしアルゴリズムの事前知識やアクセスを必要とせず,有効な透かし偽造攻撃であるWMCopierを提案する。
提案手法はまず,無条件拡散モデルを用いて対象の透かし分布をモデル化し,次いで,対象の透かしを非透かし画像にシームレスに埋め込む。
実験の結果、WMCopierはオープンソースとクローズドソースの両方の透かしシステムを効果的に騙していることがわかった。
論文 参考訳(メタデータ) (2025-03-28T11:11:19Z) - Certifiably Robust Image Watermark [57.546016845801134]
ジェネレーティブAIは、偽情報やプロパガンダキャンペーンの促進など、多くの社会的懸念を提起する。
ウォーターマークAI生成コンテンツは、これらの懸念に対処するための重要な技術である。
本報告では, 除去・偽造攻撃に対するロバスト性保証を保証した最初の画像透かしを提案する。
論文 参考訳(メタデータ) (2024-07-04T17:56:04Z) - UnMarker: A Universal Attack on Defensive Image Watermarking [4.013156524547072]
防衛的な透かしに対する最初の実践的普遍的な攻撃であるUnMarkerを紹介します。
UnMarkerは検出器のフィードバックを必要とせず、透かしスキームや類似したモデルに関する非現実的な知識も必要とせず、先進的な復調パイプラインも必要としない。
SOTAスキームに対する評価は、UnMarkerの有効性を証明する。
論文 参考訳(メタデータ) (2024-05-14T07:05:18Z) - Latent Watermark: Inject and Detect Watermarks in Latent Diffusion Space [7.082806239644562]
既存の手法は、画質と透かしの堅牢性のジレンマに直面している。
画像品質の優れた透かしは通常、ぼやけやJPEG圧縮のような攻撃に対して弱い堅牢性を持つ。
本稿では,潜伏拡散空間内の透かしを注入し,検出する潜伏透かしを提案する。
論文 参考訳(メタデータ) (2024-03-30T03:19:50Z) - Robustness of AI-Image Detectors: Fundamental Limits and Practical
Attacks [47.04650443491879]
我々は、透かしやディープフェイク検出器を含む様々なAI画像検出器の堅牢性を分析する。
ウォーターマーキング手法は,攻撃者が実際の画像をウォーターマーキングとして識別することを目的としたスプーフ攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2023-09-29T18:30:29Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。