論文の概要: DeepForgeSeal: Latent Space-Driven Semi-Fragile Watermarking for Deepfake Detection Using Multi-Agent Adversarial Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2511.04949v1
- Date: Fri, 07 Nov 2025 03:24:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.66053
- Title: DeepForgeSeal: Latent Space-Driven Semi-Fragile Watermarking for Deepfake Detection Using Multi-Agent Adversarial Reinforcement Learning
- Title(参考訳): DeepForgeSeal:マルチエージェント逆相関強化学習を用いた深度検出のための潜時空間駆動型半脆弱透かし
- Authors: Tharindu Fernando, Clinton Fookes, Sridha Sridharan,
- Abstract要約: 本稿では,高次元の潜在空間表現とマルチエージェント適応強化学習パラダイムを利用した新しいディープラーニングフレームワークを提案する。
我々は,潜時空間で動作する学習可能な透かし埋め込み装置を開発し,高レベル画像のセマンティクスをキャプチャする。
CelebAとCelebA-HQベンチマークの総合的な評価により、我々の手法は最先端のアプローチを一貫して上回っていることが明らかとなった。
- 参考スコア(独自算出の注目度): 32.222640070452464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rapid advances in generative AI have led to increasingly realistic deepfakes, posing growing challenges for law enforcement and public trust. Existing passive deepfake detectors struggle to keep pace, largely due to their dependence on specific forgery artifacts, which limits their ability to generalize to new deepfake types. Proactive deepfake detection using watermarks has emerged to address the challenge of identifying high-quality synthetic media. However, these methods often struggle to balance robustness against benign distortions with sensitivity to malicious tampering. This paper introduces a novel deep learning framework that harnesses high-dimensional latent space representations and the Multi-Agent Adversarial Reinforcement Learning (MAARL) paradigm to develop a robust and adaptive watermarking approach. Specifically, we develop a learnable watermark embedder that operates in the latent space, capturing high-level image semantics, while offering precise control over message encoding and extraction. The MAARL paradigm empowers the learnable watermarking agent to pursue an optimal balance between robustness and fragility by interacting with a dynamic curriculum of benign and malicious image manipulations simulated by an adversarial attacker agent. Comprehensive evaluations on the CelebA and CelebA-HQ benchmarks reveal that our method consistently outperforms state-of-the-art approaches, achieving improvements of over 4.5% on CelebA and more than 5.3% on CelebA-HQ under challenging manipulation scenarios.
- Abstract(参考訳): ジェネレーティブAIの急速な進歩は、ますます現実的なディープフェイクをもたらし、法執行機関や公的な信頼に対する課題が増大している。
既存の受動的ディープフェイク検出器は、主に特定の偽造品に依存しており、新しいディープフェイクタイプに一般化する能力を制限するため、ペースを維持するのに苦労している。
透かしを用いたプロアクティブディープフェイク検出は高品質な合成媒体の同定という課題に対処するために現れている。
しかし、これらの手法は悪質な改ざんに敏感な良質な歪みに対して頑健さのバランスをとるのにしばしば苦労する。
本稿では,高次元潜在空間表現とマルチエージェント適応型ウォーターマーキング(MAARL)パラダイムを利用した新しいディープラーニングフレームワークを提案する。
具体的には、潜時空間で動作する学習可能な透かし埋め込み装置を開発し、高いレベルの画像意味をキャプチャし、メッセージエンコーディングと抽出を正確に制御する。
MAARLパラダイムは、学習可能な透かしエージェントに対して、敵攻撃エージェントによってシミュレートされた良性および悪意のある画像操作の動的カリキュラムと相互作用することにより、堅牢性と脆弱性の最適なバランスを追求する権限を与える。
CelebAとCelebA-HQベンチマークの総合評価により、我々の手法は最新のアプローチを一貫して上回り、CelebAでは4.5%以上、CelebA-HQでは5.3%以上の改善を実現していることが明らかとなった。
関連論文リスト
- Character-Level Perturbations Disrupt LLM Watermarks [64.60090923837701]
我々は,Large Language Model (LLM)ウォーターマーキングのためのシステムモデルを定式化する。
我々は、透かし検出器への限られたアクセスに制約された2つの現実的な脅威モデルの特徴付けを行う。
我々は,最も制限的な脅威モデルの下で,キャラクタレベルの摂動が透かし除去に著しく有効であることを実証した。
現実的な制約下での透かし除去における文字レベルの摂動の優位性と遺伝的アルゴリズム(GA)の有効性を実験的に検証した。
論文 参考訳(メタデータ) (2025-09-11T02:50:07Z) - Semantic Watermarking Reinvented: Enhancing Robustness and Generation Quality with Fourier Integrity [31.666430190864947]
我々はHermitian Symmetric Fourier Watermarking (SFW)と呼ばれる新しい埋め込み手法を提案する。
SFWはエルミート対称性を強制することによって周波数整合性を維持する。
我々は,収穫攻撃による意味的透かしの脆弱性を低減する中心認識型埋め込み戦略を導入する。
論文 参考訳(メタデータ) (2025-09-09T12:15:16Z) - ForensicsSAM: Toward Robust and Unified Image Forgery Detection and Localization Resisting to Adversarial Attack [56.0056378072843]
高い転送性を持つ逆画像は上流モデルでのみ作成可能であることを示す。
本稿では,IFDLフレームワークを組み込んだForensicsSAMを提案する。
論文 参考訳(メタデータ) (2025-08-10T16:03:44Z) - Deepfake Sentry: Harnessing Ensemble Intelligence for Resilient Detection and Generalisation [0.8796261172196743]
本稿では,持続的かつ積極的なディープフェイクトレーニング強化ソリューションを提案する。
我々は、ディープフェイクジェネレータモデルによって導入されたアーティファクトの効果を模倣するオートエンコーダのプールを採用する。
実験の結果,提案するアンサンブル・オートエンコーダに基づくデータ拡張学習手法が一般化の点で改善されていることがわかった。
論文 参考訳(メタデータ) (2024-03-29T19:09:08Z) - Robust Identity Perceptual Watermark Against Deepfake Face Swapping [9.402982368385569]
ディープフェイク・フェイススワップは、ディープジェネレーティブ・モデルの急速な開発で重要なプライバシー問題を引き起こしている。
本稿では,Deepfakeの顔スワップに対する検出とソーストレースを同時に行う,堅牢なアイデンティティ認識型透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-02T16:04:32Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。