論文の概要: Dual Defense: Adversarial, Traceable, and Invisible Robust Watermarking
against Face Swapping
- arxiv url: http://arxiv.org/abs/2310.16540v1
- Date: Wed, 25 Oct 2023 10:39:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 15:13:12.236978
- Title: Dual Defense: Adversarial, Traceable, and Invisible Robust Watermarking
against Face Swapping
- Title(参考訳): dual defense: 顔交換に対する敵意、追跡可能、目に見えない堅牢な透かし
- Authors: Yunming Zhang and Dengpan Ye and Caiyun Xie and Long Tang and Chuanxi
Chen and Ziyi Liu and Jiacheng Deng
- Abstract要約: 顔交換に代表される深い偽造の悪意ある応用は、誤情報拡散や身元確認詐欺のようなセキュリティ上の脅威を導入している。
本稿では,デュアルディフェンス(Dual Defense)と呼ばれる,トレーサビリティと敵意を組み合わせた新たなアクティブディフェンス機構を提案する。
ターゲットの顔に単一の堅牢な透かしを埋め込んで、悪意のある顔交換の突然のケースに積極的に反応する。
- 参考スコア(独自算出の注目度): 13.659927216999407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The malicious applications of deep forgery, represented by face swapping,
have introduced security threats such as misinformation dissemination and
identity fraud. While some research has proposed the use of robust watermarking
methods to trace the copyright of facial images for post-event traceability,
these methods cannot effectively prevent the generation of forgeries at the
source and curb their dissemination. To address this problem, we propose a
novel comprehensive active defense mechanism that combines traceability and
adversariality, called Dual Defense. Dual Defense invisibly embeds a single
robust watermark within the target face to actively respond to sudden cases of
malicious face swapping. It disrupts the output of the face swapping model
while maintaining the integrity of watermark information throughout the entire
dissemination process. This allows for watermark extraction at any stage of
image tracking for traceability. Specifically, we introduce a watermark
embedding network based on original-domain feature impersonation attack. This
network learns robust adversarial features of target facial images and embeds
watermarks, seeking a well-balanced trade-off between watermark invisibility,
adversariality, and traceability through perceptual adversarial encoding
strategies. Extensive experiments demonstrate that Dual Defense achieves
optimal overall defense success rates and exhibits promising universality in
anti-face swapping tasks and dataset generalization ability. It maintains
impressive adversariality and traceability in both original and robust
settings, surpassing current forgery defense methods that possess only one of
these capabilities, including CMUA-Watermark, Anti-Forgery, FakeTagger, or PGD
methods.
- Abstract(参考訳): 顔の交換によって表されるディープ偽造の悪質な応用は、誤情報の拡散やアイデンティティ詐欺といったセキュリティ上の脅威をもたらしている。
いくつかの研究は、顔画像の著作権をトレーサビリティのために追跡するために堅牢な透かし法を使うことを提案したが、これらの方法は、ソースでの偽造の発生を効果的に防ぎ、その拡散を抑制することはできない。
この問題に対処するため,我々は,トレーサビリティと逆境性を組み合わせた新しい包括的アクティブ防御機構を提案する。
デュアルディフェンスは、ターゲットフェイスに1つの堅牢なウォーターマークを埋め込み、悪意のある顔交換の突然のケースに積極的に反応する。
フェーススワッピングモデルの出力を阻害し、散布プロセス全体を通して透かし情報の整合性を維持する。
これにより、トレーサビリティのための画像追跡のどの段階でも透かし抽出が可能である。
具体的には,オリジナルドメイン機能偽装攻撃に基づく透かし埋め込みネットワークを提案する。
このネットワークは、ターゲットの顔画像の堅牢な対向特性を学習し、透かしの可視性、対向性、トレーサビリティのバランスのとれたトレードオフを求める。
広範な実験により、デュアルディフェンスは最適な防御成功率を達成し、対面交換タスクとデータセットの一般化能力において有望な普遍性を示すことが示されている。
cmua-watermark、anti-forgery、faketagger、pgdなど、これらの能力の1つしか持たない現在の偽造防衛手法を上回っている。
関連論文リスト
- Robust Identity Perceptual Watermark Against Deepfake Face Swapping [8.879064049275977]
ディープフェイク・フェイススワップは、ディープジェネレーティブ・モデルの急速な開発で重要なプライバシー問題を引き起こしている。
本稿では,Deepfakeの顔スワップに対する検出とソーストレースを同時に行う,最初の堅牢なアイデンティティ認識型透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-02T16:04:32Z) - T2IW: Joint Text to Image & Watermark Generation [74.20148555503127]
画像と透かし(T2IW)への共同テキスト生成のための新しいタスクを提案する。
このT2IWスキームは、意味的特徴と透かし信号が画素内で互換性を持つように強制することにより、複合画像を生成する際に、画像品質に最小限のダメージを与える。
提案手法により,画像品質,透かしの可視性,透かしの堅牢性などの顕著な成果が得られた。
論文 参考訳(メタデータ) (2023-09-07T16:12:06Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Evaluating the Robustness of Trigger Set-Based Watermarks Embedded in
Deep Neural Networks [22.614495877481144]
最先端のトリガーセットベースの透かしアルゴリズムは、所有権を証明するという設計目標を達成することができない。
本稿では,対象モデルの基盤となる透かしアルゴリズムに対する敵の知識を活用する新しい適応攻撃を提案する。
論文 参考訳(メタデータ) (2021-06-18T14:23:55Z) - CMUA-Watermark: A Cross-Model Universal Adversarial Watermark for
Combating Deepfakes [74.18502861399591]
ディープフェイクの悪意ある応用(すなわち、テクノロジーはターゲットの顔や顔の特徴を生成できる)は、我々の社会に大きな脅威をもたらしている。
本稿では,深層圏モデルに対する普遍的敵攻撃法を提案し,CMUA-Watermark(CMUA-Watermark)を作成した。
実験の結果,提案したCMUA-Watermarkはディープフェイクモデルによって生成された偽の顔画像を効果的に歪めることができることがわかった。
論文 参考訳(メタデータ) (2021-05-23T07:28:36Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z) - WAN: Watermarking Attack Network [6.763499535329116]
マルチビット透かし (MW) は信号処理と幾何歪みに対する堅牢性を改善するために開発された。
ウォーターマークされたイメージにシミュレートされたアタックを適用することで堅牢性をテストするベンチマークツールが利用可能だ。
本稿では、ターゲットMWの弱点を利用して、透かしビットの反転を誘導する透かし攻撃ネットワーク(WAN)を提案する。
論文 参考訳(メタデータ) (2020-08-14T09:11:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。