論文の概要: Uncovering and Mitigating Destructive Multi-Embedding Attacks in Deepfake Proactive Forensics
- arxiv url: http://arxiv.org/abs/2508.17247v1
- Date: Sun, 24 Aug 2025 07:57:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.424572
- Title: Uncovering and Mitigating Destructive Multi-Embedding Attacks in Deepfake Proactive Forensics
- Title(参考訳): ディープフェイク予防法医学における破壊的マルチエンベディング攻撃の発見と軽減
- Authors: Lixin Jia, Haiyang Sun, Zhiqing Guo, Yunfeng Diao, Dan Ma, Gaobo Yang,
- Abstract要約: 積極的法医学は 信頼できない 透かしを埋め込んで 信頼できる情報源の追跡を 可能にします
既存の手法は、1つの透かしを埋め込むという理想的な仮定に依存しており、これは現実のシナリオでは非現実的であることを証明している。
本稿では,この脆弱性に対処するため,AIS(Adversarial Interference Simulation)という訓練パラダイムを提案する。
本手法は,第2の埋め込み後であっても,元の透かしを正しく抽出する能力を維持することができる。
- 参考スコア(独自算出の注目度): 17.112388802067425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid evolution of deepfake technologies and the wide dissemination of digital media, personal privacy is facing increasingly serious security threats. Deepfake proactive forensics, which involves embedding imperceptible watermarks to enable reliable source tracking, serves as a crucial defense against these threats. Although existing methods show strong forensic ability, they rely on an idealized assumption of single watermark embedding, which proves impractical in real-world scenarios. In this paper, we formally define and demonstrate the existence of Multi-Embedding Attacks (MEA) for the first time. When a previously protected image undergoes additional rounds of watermark embedding, the original forensic watermark can be destroyed or removed, rendering the entire proactive forensic mechanism ineffective. To address this vulnerability, we propose a general training paradigm named Adversarial Interference Simulation (AIS). Rather than modifying the network architecture, AIS explicitly simulates MEA scenarios during fine-tuning and introduces a resilience-driven loss function to enforce the learning of sparse and stable watermark representations. Our method enables the model to maintain the ability to extract the original watermark correctly even after a second embedding. Extensive experiments demonstrate that our plug-and-play AIS training paradigm significantly enhances the robustness of various existing methods against MEA.
- Abstract(参考訳): ディープフェイク技術の急速な進化とデジタルメディアの普及により、個人のプライバシーはますます深刻なセキュリティ脅威に直面している。
疑わしい透かしを埋め込んで信頼できるソース追跡を可能にするディープフェイク予防法医学は、これらの脅威に対する重要な防御となる。
既存の手法は強い法医学的能力を示すが、それらは単一の透かしを埋め込むという理想的な仮定に依存しており、現実のシナリオでは非現実的であることを証明している。
本稿では,Multi-Embedding Attacks (MEA) の存在を初めて正式に定義し,実証する。
予め保護された画像が追加で透かしの埋め込みを行うと、元の鑑定透かしを破壊または除去することができ、前向きな鑑定機構全体が無効になる。
この脆弱性に対処するため,AIS(Adversarial Interference Simulation)と呼ばれる一般的なトレーニングパラダイムを提案する。
ネットワークアーキテクチャを変更するのではなく、AISは細調整中のMEAシナリオを明示的にシミュレートし、スパースと安定した透かし表現の学習を強制するレジリエンス駆動の損失関数を導入している。
本手法は,第2の埋め込み後であっても,元の透かしを正しく抽出する能力を維持することができる。
大規模な実験により,このAISトレーニングパラダイムは,MEAに対する様々な既存手法の堅牢性を大幅に向上させることが示された。
関連論文リスト
- Towards Dataset Copyright Evasion Attack against Personalized Text-to-Image Diffusion Models [52.877452505561706]
データセットのオーナシップ検証(DOV)を損なうよう特別に設計された最初の著作権回避攻撃を提案する。
CEAT2Iは, 試料検出, トリガー同定, 効率的な透かし除去の3段階からなる。
実験の結果,CEAT2I はモデル性能を保ちながら DOV 機構を効果的に回避できることがわかった。
論文 参考訳(メタデータ) (2025-05-05T17:51:55Z) - SWA-LDM: Toward Stealthy Watermarks for Latent Diffusion Models [11.906245347904289]
埋め込みプロセスのランダム化によって透かしを強化する新しい手法であるSWA-LDMを紹介する。
提案する透かし攻撃は,既存の潜水式透かし法の本質的脆弱性を明らかにする。
この研究は、LDM生成画像の不正使用に対する保護に向けた重要なステップである。
論文 参考訳(メタデータ) (2025-02-14T16:55:45Z) - Social Media Authentication and Combating Deepfakes using Semi-fragile Invisible Image Watermarking [6.246098300155482]
本稿では,メディア認証のために,見えない秘密メッセージを実画像に埋め込む半フレジブルな画像透かし手法を提案する。
提案するフレームワークは,顔の操作や改ざんに対して脆弱であると同時に,画像処理操作や透かし除去攻撃に対して頑健であるように設計されている。
論文 参考訳(メタデータ) (2024-10-02T18:05:03Z) - ModelShield: Adaptive and Robust Watermark against Model Extraction Attack [58.46326901858431]
大規模言語モデル(LLM)は、さまざまな機械学習タスクにまたがる汎用インテリジェンスを示す。
敵はモデル抽出攻撃を利用して モデル生成で符号化された モデルインテリジェンスを盗むことができる
ウォーターマーキング技術は、モデル生成コンテンツにユニークな識別子を埋め込むことによって、このような攻撃を防御する有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-05-03T06:41:48Z) - Reliable Model Watermarking: Defending Against Theft without Compromising on Evasion [15.086451828825398]
回避敵は、ウォーターマークサンプルを記憶したモデルによって生成されるショートカットを、容易に利用することができる。
モデルを学習してそれらを正確に認識することで、ユニークな透かし行動が知識注入によって促進される。
論文 参考訳(メタデータ) (2024-04-21T03:38:20Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。