論文の概要: DiffMark: Diffusion-based Robust Watermark Against Deepfakes
- arxiv url: http://arxiv.org/abs/2507.01428v1
- Date: Wed, 02 Jul 2025 07:29:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.083619
- Title: DiffMark: Diffusion-based Robust Watermark Against Deepfakes
- Title(参考訳): DiffMark: 拡散に基づくディープフェイクに対するロバストな透かし
- Authors: Chen Sun, Haiyang Sun, Zhiqing Guo, Yunfeng Diao, Liejun Wang, Dan Ma, Gaobo Yang, Keqin Li,
- Abstract要約: ディープフェイクは、悪意のある顔操作を通じて、重大なセキュリティとプライバシーの脅威を引き起こす。
既存の透かし法はディープフェイク操作に対して十分な堅牢性を欠いていることが多い。
本稿では拡散モデルに基づく新しいロバストな透かしフレームワークDiffMarkを提案する。
- 参考スコア(独自算出の注目度): 21.205463800125056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deepfakes pose significant security and privacy threats through malicious facial manipulations. While robust watermarking can aid in authenticity verification and source tracking, existing methods often lack the sufficient robustness against Deepfake manipulations. Diffusion models have demonstrated remarkable performance in image generation, enabling the seamless fusion of watermark with image during generation. In this study, we propose a novel robust watermarking framework based on diffusion model, called DiffMark. By modifying the training and sampling scheme, we take the facial image and watermark as conditions to guide the diffusion model to progressively denoise and generate corresponding watermarked image. In the construction of facial condition, we weight the facial image by a timestep-dependent factor that gradually reduces the guidance intensity with the decrease of noise, thus better adapting to the sampling process of diffusion model. To achieve the fusion of watermark condition, we introduce a cross information fusion (CIF) module that leverages a learnable embedding table to adaptively extract watermark features and integrates them with image features via cross-attention. To enhance the robustness of the watermark against Deepfake manipulations, we integrate a frozen autoencoder during training phase to simulate Deepfake manipulations. Additionally, we introduce Deepfake-resistant guidance that employs specific Deepfake model to adversarially guide the diffusion sampling process to generate more robust watermarked images. Experimental results demonstrate the effectiveness of the proposed DiffMark on typical Deepfakes. Our code will be available at https://github.com/vpsg-research/DiffMark.
- Abstract(参考訳): ディープフェイクは、悪意のある顔操作を通じて、重大なセキュリティとプライバシーの脅威を引き起こす。
堅牢な透かしは信頼性の検証とソースの追跡に役立つが、既存の手法はディープフェイク操作に対する十分な堅牢さを欠いていることが多い。
拡散モデルは画像生成において顕著な性能を示し、生成中の透かしと画像とのシームレスな融合を可能にする。
本研究では,拡散モデルに基づく新しいロバストな透かしフレームワークDiffMarkを提案する。
トレーニングとサンプリングのスキームを改良することにより,顔画像と透かしを条件として,拡散モデルを用いて段階的に復調し,対応する透かし画像を生成する。
顔条件の構築において、ノイズの減少に伴う誘導強度を徐々に減少させる時間ステップ依存因子による顔画像の重み付けを行い、拡散モデルのサンプリングプロセスに適応する。
透かし条件の融合を実現するため,学習可能な埋め込みテーブルを活用するクロス情報融合(CIF)モジュールを導入し,透かし特徴を適応的に抽出し,クロスアテンションを介して画像特徴と統合する。
ディープフェイク操作に対する透かしの堅牢性を高めるため、トレーニングフェーズ中に凍結オートエンコーダを統合し、ディープフェイク操作をシミュレートする。
さらに,より堅牢な透かし画像を生成するために,特定のディープフェイクモデルを用いて拡散サンプリングプロセスの逆ガイドを行うディープフェイク耐性ガイダンスを導入する。
実験により,典型的なディープフェイクに対するDiffMarkの有効性が示された。
私たちのコードはhttps://github.com/vpsg-research/DiffMarkで公開されます。
関連論文リスト
- Optimization-Free Universal Watermark Forgery with Regenerative Diffusion Models [50.73220224678009]
ウォーターマーキングは、人工知能モデルによって生成された合成画像の起源を検証するために使用できる。
近年の研究では, 対象画像から表層画像への透かしを, 対角的手法を用いてフォージできることが示されている。
本稿では,最適化フリーで普遍的な透かし偽造のリスクが大きいことを明らかにする。
我々のアプローチは攻撃範囲を大きく広げ、現在の透かし技術の安全性により大きな課題をもたらす。
論文 参考訳(メタデータ) (2025-06-06T12:08:02Z) - Towards Dataset Copyright Evasion Attack against Personalized Text-to-Image Diffusion Models [52.877452505561706]
データセットのオーナシップ検証(DOV)を損なうよう特別に設計された最初の著作権回避攻撃を提案する。
CEAT2Iは, 試料検出, トリガー同定, 効率的な透かし除去の3段階からなる。
実験の結果,CEAT2I はモデル性能を保ちながら DOV 機構を効果的に回避できることがわかった。
論文 参考訳(メタデータ) (2025-05-05T17:51:55Z) - Gaussian Shading++: Rethinking the Realistic Deployment Challenge of Performance-Lossless Image Watermark for Diffusion Models [66.54457339638004]
著作権保護と不適切なコンテンツ生成は、拡散モデルの実装に課題をもたらす。
本研究では,実世界の展開に適した拡散モデル透かし手法を提案する。
Gaussian Shading++はパフォーマンスのロスレス性を維持するだけでなく、ロバスト性の観点からも既存のメソッドよりも優れています。
論文 参考訳(メタデータ) (2025-04-21T11:18:16Z) - Bridging Knowledge Gap Between Image Inpainting and Large-Area Visible Watermark Removal [57.84348166457113]
本稿では,事前学習した画像の塗装モデルの表現能力を活用する新しい特徴適応フレームワークを提案する。
本手法は, 透かしの残像の残像を塗布バックボーンモデルに流し込むことにより, 透かしと透かし除去の知識ギャップを埋めるものである。
高品質な透かしマスクへの依存を緩和するために,粗い透かしマスクを用いて推論プロセスを導出する新たな訓練パラダイムを導入する。
論文 参考訳(メタデータ) (2025-04-07T02:37:14Z) - Robust Watermarks Leak: Channel-Aware Feature Extraction Enables Adversarial Watermark Manipulation [21.41643665626451]
本稿では,事前学習された視覚モデルを用いて,透かしパターンの漏洩を抽出する攻撃フレームワークを提案する。
大量のデータや検出器のアクセスを必要とする従来の作業とは異なり,本手法は1つの透かし画像による偽造と検出の両方を達成している。
現在の"ロバスト"な透かしは、歪み抵抗に対するセキュリティを犠牲にして、将来の透かし設計の洞察を与えます。
論文 参考訳(メタデータ) (2025-02-10T12:55:08Z) - SuperMark: Robust and Training-free Image Watermarking via Diffusion-based Super-Resolution [27.345134138673945]
我々は、堅牢でトレーニング不要な透かしフレームワークであるSuperMarkを提案する。
SuperMarkは既存の手法を使って初期ガウスノイズに透かしを埋め込む。
次に、トレーニング済みの超解像モデルを適用して、透かしのノイズを消音し、最終的な透かしの画像を生成する。
抽出には、透かし画像がDDIM変換により初期透かしノイズに逆戻りされ、埋め込み透かしが抽出される。
実験により、SuperMarkは既存のメソッドに匹敵する忠実性を達成し、ロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2024-12-13T11:20:59Z) - Shallow Diffuse: Robust and Invisible Watermarking through Low-Dimensional Subspaces in Diffusion Models [10.726987194250116]
拡散モデル出力にロバストで見えない透かしを埋め込む新しい透かし技術であるShallow Diffuseを導入する。
我々の理論的および経験的分析により,浅度拡散はデータ生成の一貫性と透かしの検出可能性を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2024-10-28T14:51:04Z) - Gaussian Shading: Provable Performance-Lossless Image Watermarking for Diffusion Models [71.13610023354967]
著作権保護と不適切なコンテンツ生成は、拡散モデルの実装に課題をもたらす。
本研究では,性能ロスレスかつトレーニング不要な拡散モデル透かし手法を提案する。
論文 参考訳(メタデータ) (2024-04-07T13:30:10Z) - Attack-Resilient Image Watermarking Using Stable Diffusion [24.40254115319263]
トレーニング済みの安定拡散モデルを用いて,トレーニング可能な潜在空間に透かしを注入するZoDiacを提案する。
ZoDiacは最先端の透かし攻撃に対して堅牢であり、透かし検出率は98%以上、偽陽性率は6.4%以下である。
我々の研究は、安定拡散は堅牢な透かしへの有望なアプローチであり、安定拡散に基づく攻撃にも耐えられることを示した。
論文 参考訳(メタデータ) (2024-01-08T21:42:56Z) - Robustness of AI-Image Detectors: Fundamental Limits and Practical
Attacks [47.04650443491879]
我々は、透かしやディープフェイク検出器を含む様々なAI画像検出器の堅牢性を分析する。
ウォーターマーキング手法は,攻撃者が実際の画像をウォーターマーキングとして識別することを目的としたスプーフ攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2023-09-29T18:30:29Z) - Tree-Ring Watermarks: Fingerprints for Diffusion Images that are
Invisible and Robust [55.91987293510401]
生成モデルのアウトプットを透かしは、著作権をトレースし、AI生成コンテンツによる潜在的な害を防ぐ重要なテクニックである。
本稿では,拡散モデル出力を頑健にフィンガープリントするTree-Ring Watermarkingという新しい手法を提案する。
私たちの透かしは画像空間に意味的に隠れており、現在デプロイされている透かしよりもはるかに堅牢です。
論文 参考訳(メタデータ) (2023-05-31T17:00:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。