論文の概要: DiffMark: Diffusion-based Robust Watermark Against Deepfakes
- arxiv url: http://arxiv.org/abs/2507.01428v1
- Date: Wed, 02 Jul 2025 07:29:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.083619
- Title: DiffMark: Diffusion-based Robust Watermark Against Deepfakes
- Title(参考訳): DiffMark: 拡散に基づくディープフェイクに対するロバストな透かし
- Authors: Chen Sun, Haiyang Sun, Zhiqing Guo, Yunfeng Diao, Liejun Wang, Dan Ma, Gaobo Yang, Keqin Li,
- Abstract要約: ディープフェイクは、悪意のある顔操作を通じて、重大なセキュリティとプライバシーの脅威を引き起こす。
既存の透かし法はディープフェイク操作に対して十分な堅牢性を欠いていることが多い。
本稿では拡散モデルに基づく新しいロバストな透かしフレームワークDiffMarkを提案する。
- 参考スコア(独自算出の注目度): 21.205463800125056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deepfakes pose significant security and privacy threats through malicious facial manipulations. While robust watermarking can aid in authenticity verification and source tracking, existing methods often lack the sufficient robustness against Deepfake manipulations. Diffusion models have demonstrated remarkable performance in image generation, enabling the seamless fusion of watermark with image during generation. In this study, we propose a novel robust watermarking framework based on diffusion model, called DiffMark. By modifying the training and sampling scheme, we take the facial image and watermark as conditions to guide the diffusion model to progressively denoise and generate corresponding watermarked image. In the construction of facial condition, we weight the facial image by a timestep-dependent factor that gradually reduces the guidance intensity with the decrease of noise, thus better adapting to the sampling process of diffusion model. To achieve the fusion of watermark condition, we introduce a cross information fusion (CIF) module that leverages a learnable embedding table to adaptively extract watermark features and integrates them with image features via cross-attention. To enhance the robustness of the watermark against Deepfake manipulations, we integrate a frozen autoencoder during training phase to simulate Deepfake manipulations. Additionally, we introduce Deepfake-resistant guidance that employs specific Deepfake model to adversarially guide the diffusion sampling process to generate more robust watermarked images. Experimental results demonstrate the effectiveness of the proposed DiffMark on typical Deepfakes. Our code will be available at https://github.com/vpsg-research/DiffMark.
- Abstract(参考訳): ディープフェイクは、悪意のある顔操作を通じて、重大なセキュリティとプライバシーの脅威を引き起こす。
堅牢な透かしは信頼性の検証とソースの追跡に役立つが、既存の手法はディープフェイク操作に対する十分な堅牢さを欠いていることが多い。
拡散モデルは画像生成において顕著な性能を示し、生成中の透かしと画像とのシームレスな融合を可能にする。
本研究では,拡散モデルに基づく新しいロバストな透かしフレームワークDiffMarkを提案する。
トレーニングとサンプリングのスキームを改良することにより,顔画像と透かしを条件として,拡散モデルを用いて段階的に復調し,対応する透かし画像を生成する。
顔条件の構築において、ノイズの減少に伴う誘導強度を徐々に減少させる時間ステップ依存因子による顔画像の重み付けを行い、拡散モデルのサンプリングプロセスに適応する。
透かし条件の融合を実現するため,学習可能な埋め込みテーブルを活用するクロス情報融合(CIF)モジュールを導入し,透かし特徴を適応的に抽出し,クロスアテンションを介して画像特徴と統合する。
ディープフェイク操作に対する透かしの堅牢性を高めるため、トレーニングフェーズ中に凍結オートエンコーダを統合し、ディープフェイク操作をシミュレートする。
さらに,より堅牢な透かし画像を生成するために,特定のディープフェイクモデルを用いて拡散サンプリングプロセスの逆ガイドを行うディープフェイク耐性ガイダンスを導入する。
実験により,典型的なディープフェイクに対するDiffMarkの有効性が示された。
私たちのコードはhttps://github.com/vpsg-research/DiffMarkで公開されます。
関連論文リスト
- SuperMark: Robust and Training-free Image Watermarking via Diffusion-based Super-Resolution [27.345134138673945]
我々は、堅牢でトレーニング不要な透かしフレームワークであるSuperMarkを提案する。
SuperMarkは既存の手法を使って初期ガウスノイズに透かしを埋め込む。
次に、トレーニング済みの超解像モデルを適用して、透かしのノイズを消音し、最終的な透かしの画像を生成する。
抽出には、透かし画像がDDIM変換により初期透かしノイズに逆戻りされ、埋め込み透かしが抽出される。
実験により、SuperMarkは既存のメソッドに匹敵する忠実性を達成し、ロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2024-12-13T11:20:59Z) - Shallow Diffuse: Robust and Invisible Watermarking through Low-Dimensional Subspaces in Diffusion Models [10.726987194250116]
拡散モデル出力にロバストで見えない透かしを埋め込む新しい透かし技術であるShallow Diffuseを導入する。
我々の理論的および経験的分析により,浅度拡散はデータ生成の一貫性と透かしの検出可能性を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2024-10-28T14:51:04Z) - Gaussian Shading: Provable Performance-Lossless Image Watermarking for Diffusion Models [71.13610023354967]
著作権保護と不適切なコンテンツ生成は、拡散モデルの実装に課題をもたらす。
本研究では,性能ロスレスかつトレーニング不要な拡散モデル透かし手法を提案する。
論文 参考訳(メタデータ) (2024-04-07T13:30:10Z) - Attack-Resilient Image Watermarking Using Stable Diffusion [24.40254115319263]
トレーニング済みの安定拡散モデルを用いて,トレーニング可能な潜在空間に透かしを注入するZoDiacを提案する。
ZoDiacは最先端の透かし攻撃に対して堅牢であり、透かし検出率は98%以上、偽陽性率は6.4%以下である。
我々の研究は、安定拡散は堅牢な透かしへの有望なアプローチであり、安定拡散に基づく攻撃にも耐えられることを示した。
論文 参考訳(メタデータ) (2024-01-08T21:42:56Z) - Robustness of AI-Image Detectors: Fundamental Limits and Practical
Attacks [47.04650443491879]
我々は、透かしやディープフェイク検出器を含む様々なAI画像検出器の堅牢性を分析する。
ウォーターマーキング手法は,攻撃者が実際の画像をウォーターマーキングとして識別することを目的としたスプーフ攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2023-09-29T18:30:29Z) - Tree-Ring Watermarks: Fingerprints for Diffusion Images that are
Invisible and Robust [55.91987293510401]
生成モデルのアウトプットを透かしは、著作権をトレースし、AI生成コンテンツによる潜在的な害を防ぐ重要なテクニックである。
本稿では,拡散モデル出力を頑健にフィンガープリントするTree-Ring Watermarkingという新しい手法を提案する。
私たちの透かしは画像空間に意味的に隠れており、現在デプロイされている透かしよりもはるかに堅牢です。
論文 参考訳(メタデータ) (2023-05-31T17:00:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。