論文の概要: Dual Defense: Adversarial, Traceable, and Invisible Robust Watermarking
against Face Swapping
- arxiv url: http://arxiv.org/abs/2310.16540v1
- Date: Wed, 25 Oct 2023 10:39:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 15:13:12.236978
- Title: Dual Defense: Adversarial, Traceable, and Invisible Robust Watermarking
against Face Swapping
- Title(参考訳): dual defense: 顔交換に対する敵意、追跡可能、目に見えない堅牢な透かし
- Authors: Yunming Zhang and Dengpan Ye and Caiyun Xie and Long Tang and Chuanxi
Chen and Ziyi Liu and Jiacheng Deng
- Abstract要約: 顔交換に代表される深い偽造の悪意ある応用は、誤情報拡散や身元確認詐欺のようなセキュリティ上の脅威を導入している。
本稿では,デュアルディフェンス(Dual Defense)と呼ばれる,トレーサビリティと敵意を組み合わせた新たなアクティブディフェンス機構を提案する。
ターゲットの顔に単一の堅牢な透かしを埋め込んで、悪意のある顔交換の突然のケースに積極的に反応する。
- 参考スコア(独自算出の注目度): 13.659927216999407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The malicious applications of deep forgery, represented by face swapping,
have introduced security threats such as misinformation dissemination and
identity fraud. While some research has proposed the use of robust watermarking
methods to trace the copyright of facial images for post-event traceability,
these methods cannot effectively prevent the generation of forgeries at the
source and curb their dissemination. To address this problem, we propose a
novel comprehensive active defense mechanism that combines traceability and
adversariality, called Dual Defense. Dual Defense invisibly embeds a single
robust watermark within the target face to actively respond to sudden cases of
malicious face swapping. It disrupts the output of the face swapping model
while maintaining the integrity of watermark information throughout the entire
dissemination process. This allows for watermark extraction at any stage of
image tracking for traceability. Specifically, we introduce a watermark
embedding network based on original-domain feature impersonation attack. This
network learns robust adversarial features of target facial images and embeds
watermarks, seeking a well-balanced trade-off between watermark invisibility,
adversariality, and traceability through perceptual adversarial encoding
strategies. Extensive experiments demonstrate that Dual Defense achieves
optimal overall defense success rates and exhibits promising universality in
anti-face swapping tasks and dataset generalization ability. It maintains
impressive adversariality and traceability in both original and robust
settings, surpassing current forgery defense methods that possess only one of
these capabilities, including CMUA-Watermark, Anti-Forgery, FakeTagger, or PGD
methods.
- Abstract(参考訳): 顔の交換によって表されるディープ偽造の悪質な応用は、誤情報の拡散やアイデンティティ詐欺といったセキュリティ上の脅威をもたらしている。
いくつかの研究は、顔画像の著作権をトレーサビリティのために追跡するために堅牢な透かし法を使うことを提案したが、これらの方法は、ソースでの偽造の発生を効果的に防ぎ、その拡散を抑制することはできない。
この問題に対処するため,我々は,トレーサビリティと逆境性を組み合わせた新しい包括的アクティブ防御機構を提案する。
デュアルディフェンスは、ターゲットフェイスに1つの堅牢なウォーターマークを埋め込み、悪意のある顔交換の突然のケースに積極的に反応する。
フェーススワッピングモデルの出力を阻害し、散布プロセス全体を通して透かし情報の整合性を維持する。
これにより、トレーサビリティのための画像追跡のどの段階でも透かし抽出が可能である。
具体的には,オリジナルドメイン機能偽装攻撃に基づく透かし埋め込みネットワークを提案する。
このネットワークは、ターゲットの顔画像の堅牢な対向特性を学習し、透かしの可視性、対向性、トレーサビリティのバランスのとれたトレードオフを求める。
広範な実験により、デュアルディフェンスは最適な防御成功率を達成し、対面交換タスクとデータセットの一般化能力において有望な普遍性を示すことが示されている。
cmua-watermark、anti-forgery、faketagger、pgdなど、これらの能力の1つしか持たない現在の偽造防衛手法を上回っている。
関連論文リスト
- LampMark: Proactive Deepfake Detection via Training-Free Landmark Perceptual Watermarks [7.965986856780787]
本稿では,LampMarkを略して,新しい学習自由なランドマークとして紹介する。
まず、Deepfake操作の構造に敏感な特性を分析し、セキュアで機密性の高い変換パイプラインを考案する。
本稿では,保護対象画像に関する透かしを認識不能に埋め込み,抽出するエンド・ツー・エンドの透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-26T08:24:56Z) - Facial Features Matter: a Dynamic Watermark based Proactive Deepfake Detection Approach [11.51480331713537]
本稿では,顔特徴に基づく能動的深度検出法(FaceProtect)を提案する。
本稿では,128次元顔特徴ベクトルを入力として利用するGODWGM(One-way Dynamic Watermark Generating Mechanism)を提案する。
また, ステガノグラフィとGODWGMを併用し, ベンチマーク透かしの同時送信を可能にするWatermark-based Verification Strategy (WVS)を提案する。
論文 参考訳(メタデータ) (2024-11-22T08:49:08Z) - Adversarial Watermarking for Face Recognition [17.11307036255593]
顔認識システムでは、データの完全性とセキュリティを確保する上で、透かしが重要な役割を果たす。
顔認識モデルに対する透かしと敵攻撃の相互作用について検討する。
提案手法は,顔のマッチング精度を67.2%削減する。
論文 参考訳(メタデータ) (2024-09-24T12:58:32Z) - ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に対する潜在的な脅威となる。
この不正行為を防ぐため、プロアクティブな防御技術が提案され、操作プロセスを妨害した。
我々は,ID-Guardと呼ばれる,顔操作と戦うための新しい普遍的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - DIP-Watermark: A Double Identity Protection Method Based on Robust Adversarial Watermark [13.007649270429493]
顔認識(FR)システムはプライバシーのリスクを引き起こす。
1つの対策は敵攻撃であり、不正な悪意のあるFRを欺くことである。
トレース可能な対角線透かしに基づく最初の二重識別保護方式を提案する。
論文 参考訳(メタデータ) (2024-04-23T02:50:38Z) - Robust Identity Perceptual Watermark Against Deepfake Face Swapping [8.276177968730549]
ディープフェイク・フェイススワップは、ディープジェネレーティブ・モデルの急速な開発で重要なプライバシー問題を引き起こしている。
本稿では,Deepfakeの顔スワップに対する検出とソーストレースを同時に行う,最初の堅牢なアイデンティティ認識型透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-02T16:04:32Z) - T2IW: Joint Text to Image & Watermark Generation [74.20148555503127]
画像と透かし(T2IW)への共同テキスト生成のための新しいタスクを提案する。
このT2IWスキームは、意味的特徴と透かし信号が画素内で互換性を持つように強制することにより、複合画像を生成する際に、画像品質に最小限のダメージを与える。
提案手法により,画像品質,透かしの可視性,透かしの堅牢性などの顕著な成果が得られた。
論文 参考訳(メタデータ) (2023-09-07T16:12:06Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Invisible Image Watermarks Are Provably Removable Using Generative AI [47.25747266531665]
Invisibleの透かしは、所有者によってのみ検出可能な隠されたメッセージを埋め込むことで、画像の著作権を保護する。
我々は、これらの見えない透かしを取り除くために、再生攻撃のファミリーを提案する。
提案手法は,まず画像にランダムノイズを加えて透かしを破壊し,画像を再構成する。
論文 参考訳(メタデータ) (2023-06-02T23:29:28Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - CMUA-Watermark: A Cross-Model Universal Adversarial Watermark for
Combating Deepfakes [74.18502861399591]
ディープフェイクの悪意ある応用(すなわち、テクノロジーはターゲットの顔や顔の特徴を生成できる)は、我々の社会に大きな脅威をもたらしている。
本稿では,深層圏モデルに対する普遍的敵攻撃法を提案し,CMUA-Watermark(CMUA-Watermark)を作成した。
実験の結果,提案したCMUA-Watermarkはディープフェイクモデルによって生成された偽の顔画像を効果的に歪めることができることがわかった。
論文 参考訳(メタデータ) (2021-05-23T07:28:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。