論文の概要: LampMark: Proactive Deepfake Detection via Training-Free Landmark Perceptual Watermarks
- arxiv url: http://arxiv.org/abs/2411.17209v1
- Date: Tue, 26 Nov 2024 08:24:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-27 13:35:06.733712
- Title: LampMark: Proactive Deepfake Detection via Training-Free Landmark Perceptual Watermarks
- Title(参考訳): LampMark: トレーニング不要ランドマークによるアクティブディープフェイク検出
- Authors: Tianyi Wang, Mengxiao Huang, Harry Cheng, Xiao Zhang, Zhiqi Shen,
- Abstract要約: 本稿では,LampMarkを略して,新しい学習自由なランドマークとして紹介する。
まず、Deepfake操作の構造に敏感な特性を分析し、セキュアで機密性の高い変換パイプラインを考案する。
本稿では,保護対象画像に関する透かしを認識不能に埋め込み,抽出するエンド・ツー・エンドの透かしフレームワークを提案する。
- 参考スコア(独自算出の注目度): 7.965986856780787
- License:
- Abstract: Deepfake facial manipulation has garnered significant public attention due to its impacts on enhancing human experiences and posing privacy threats. Despite numerous passive algorithms that have been attempted to thwart malicious Deepfake attacks, they mostly struggle with the generalizability challenge when confronted with hyper-realistic synthetic facial images. To tackle the problem, this paper proposes a proactive Deepfake detection approach by introducing a novel training-free landmark perceptual watermark, LampMark for short. We first analyze the structure-sensitive characteristics of Deepfake manipulations and devise a secure and confidential transformation pipeline from the structural representations, i.e. facial landmarks, to binary landmark perceptual watermarks. Subsequently, we present an end-to-end watermarking framework that imperceptibly and robustly embeds and extracts watermarks concerning the images to be protected. Relying on promising watermark recovery accuracies, Deepfake detection is accomplished by assessing the consistency between the content-matched landmark perceptual watermark and the robustly recovered watermark of the suspect image. Experimental results demonstrate the superior performance of our approach in watermark recovery and Deepfake detection compared to state-of-the-art methods across in-dataset, cross-dataset, and cross-manipulation scenarios.
- Abstract(参考訳): ディープフェイクの顔の操作は、人間の体験の強化やプライバシーの脅しに影響を与え、大衆の注目を集めている。
悪意のあるディープフェイク攻撃を防ぐために多くのパッシブアルゴリズムが試みられているが、それらは、超現実的な合成顔画像と対決する際の一般化可能性の問題にほとんど苦労している。
そこで本研究では,新しい学習自由なランドマークであるLampMarkを導入することで,プロアクティブなDeepfake検出手法を提案する。
まず、Deepfake操作の構造に敏感な特徴を分析し、顔のランドマークから2値のランドマークの透かしへのセキュアで機密性の高い変換パイプラインを考案する。
次に,保護対象画像に関する透かしを知覚的かつ堅牢に埋め込み,抽出するエンド・ツー・エンドの透かしフレームワークを提案する。
有望な透かし回復精度に基づき、コンテンツマッチングされたランドマーク知覚透かしと被疑画像の頑健に復元された透かしとの整合性を評価することにより、ディープフェイク検出を行う。
実験により,本手法の透かし回収とディープフェイク検出における性能は,イン・データセット,クロス・データセット,クロス・マニピュレーション・シナリオにまたがる最先端手法と比較して優れていることが示された。
関連論文リスト
- Facial Features Matter: a Dynamic Watermark based Proactive Deepfake Detection Approach [11.51480331713537]
本稿では,顔特徴に基づく能動的深度検出法(FaceProtect)を提案する。
本稿では,128次元顔特徴ベクトルを入力として利用するGODWGM(One-way Dynamic Watermark Generating Mechanism)を提案する。
また, ステガノグラフィとGODWGMを併用し, ベンチマーク透かしの同時送信を可能にするWatermark-based Verification Strategy (WVS)を提案する。
論文 参考訳(メタデータ) (2024-11-22T08:49:08Z) - Social Media Authentication and Combating Deepfakes using Semi-fragile Invisible Image Watermarking [6.246098300155482]
本稿では,メディア認証のために,見えない秘密メッセージを実画像に埋め込む半フレジブルな画像透かし手法を提案する。
提案するフレームワークは,顔の操作や改ざんに対して脆弱であると同時に,画像処理操作や透かし除去攻撃に対して頑健であるように設計されている。
論文 参考訳(メタデータ) (2024-10-02T18:05:03Z) - Are Watermarks Bugs for Deepfake Detectors? Rethinking Proactive Forensics [14.596038695008403]
現在の透かしモデルは、もともと本物の画像のために考案されたもので、偽造画像に直接適用した場合、デプロイされたディープフェイク検出器に害を与える可能性があると我々は主張する。
本稿では,能動的法医学を代表としてAdvMarkを提案し,受動検出器の対角的脆弱性を有効に活用する。
論文 参考訳(メタデータ) (2024-04-27T11:20:49Z) - WAVES: Benchmarking the Robustness of Image Watermarks [67.955140223443]
WAVES(Watermark Analysis Via Enhanced Stress-testing)は、画像透かしの堅牢性を評価するためのベンチマークである。
我々は,検出タスクと識別タスクを統合し,多様なストレステストからなる標準化された評価プロトコルを確立する。
我々はWAVESを,ロバストな透かしの将来の開発のためのツールキットとして想定する。
論文 参考訳(メタデータ) (2024-01-16T18:58:36Z) - Removing Interference and Recovering Content Imaginatively for Visible
Watermark Removal [63.576748565274706]
本研究では,Removing Interference and Recovering Content Imaginatively (RIRCI)フレームワークについて紹介する。
RIRCIは2段階のアプローチを具現化しており、最初のフェーズは透かし成分の識別と分離に焦点を当て、次のフェーズは背景コンテンツの復元に焦点を当てている。
本モデルでは,半透明透かしの下の固有背景情報を完全に探索できるデュアルパスネットワークを用いる。
論文 参考訳(メタデータ) (2023-12-22T02:19:23Z) - Robust Identity Perceptual Watermark Against Deepfake Face Swapping [8.276177968730549]
ディープフェイク・フェイススワップは、ディープジェネレーティブ・モデルの急速な開発で重要なプライバシー問題を引き起こしている。
本稿では,Deepfakeの顔スワップに対する検出とソーストレースを同時に行う,最初の堅牢なアイデンティティ認識型透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-02T16:04:32Z) - Robustness of AI-Image Detectors: Fundamental Limits and Practical
Attacks [47.04650443491879]
我々は、透かしやディープフェイク検出器を含む様々なAI画像検出器の堅牢性を分析する。
ウォーターマーキング手法は,攻撃者が実際の画像をウォーターマーキングとして識別することを目的としたスプーフ攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2023-09-29T18:30:29Z) - T2IW: Joint Text to Image & Watermark Generation [74.20148555503127]
画像と透かし(T2IW)への共同テキスト生成のための新しいタスクを提案する。
このT2IWスキームは、意味的特徴と透かし信号が画素内で互換性を持つように強制することにより、複合画像を生成する際に、画像品質に最小限のダメージを与える。
提案手法により,画像品質,透かしの可視性,透かしの堅牢性などの顕著な成果が得られた。
論文 参考訳(メタデータ) (2023-09-07T16:12:06Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Robust Face-Swap Detection Based on 3D Facial Shape Information [59.32489266682952]
顔のスワップ画像やビデオは、悪意ある攻撃者を惹きつけ、重要な人物の信用を損ねている。
以前のピクセルレベルのアーティファクトに基づく検出技術は、常に不明瞭なパターンにフォーカスするが、利用可能なセマンティックなヒントは無視する。
キーフィギュアの顔・スワップ検出のための外観・形状特徴をフル活用するための生体情報に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-04-28T09:35:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。