論文の概要: Robust Identity Perceptual Watermark Against Deepfake Face Swapping
- arxiv url: http://arxiv.org/abs/2311.01357v1
- Date: Thu, 2 Nov 2023 16:04:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-03 12:45:44.458612
- Title: Robust Identity Perceptual Watermark Against Deepfake Face Swapping
- Title(参考訳): ディープフェイク・フェイススワップングに対するロバストな同一性知覚透かし
- Authors: Tianyi Wang and Mengxiao Huang and Harry Cheng and Bin Ma and Yinglong
Wang
- Abstract要約: ディープフェイク・フェイススワップは、ディープジェネレーティブ・モデルの急速な開発で重要なプライバシー問題を引き起こしている。
本稿では,Deepfakeの顔スワップに対する検出とソーストレースを同時に行う,最初の堅牢なアイデンティティ認識型透かしフレームワークを提案する。
- 参考スコア(独自算出の注目度): 8.879064049275977
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Notwithstanding offering convenience and entertainment to society, Deepfake
face swapping has caused critical privacy issues with the rapid development of
deep generative models. Due to imperceptible artifacts in high-quality
synthetic images, passive detection models against face swapping in recent
years usually suffer performance damping regarding the generalizability issue.
Therefore, several studies have been attempted to proactively protect the
original images against malicious manipulations by inserting invisible signals
in advance. However, the existing proactive defense approaches demonstrate
unsatisfactory results with respect to visual quality, detection accuracy, and
source tracing ability. In this study, we propose the first robust identity
perceptual watermarking framework that concurrently performs detection and
source tracing against Deepfake face swapping proactively. We assign identity
semantics regarding the image contents to the watermarks and devise an
unpredictable and unreversible chaotic encryption system to ensure watermark
confidentiality. The watermarks are encoded and recovered by jointly training
an encoder-decoder framework along with adversarial image manipulations.
Extensive experiments demonstrate state-of-the-art performance against Deepfake
face swapping under both cross-dataset and cross-manipulation settings.
- Abstract(参考訳): 社会に利便性と娯楽を提供する一方で、ディープフェイクのフェイススワップは、ディープジェネレーションモデルの急速な発展において、プライバシーの問題を引き起こしている。
高品質な合成画像では知覚できないアーティファクトのため、近年では顔の交換に対するパッシブ検出モデルが一般化可能性に関する性能低下に苦しむことが多い。
そのため,前もって目に見えない信号を挿入することにより,悪質な操作に対して元のイメージを積極的に保護する研究がいくつか試みられている。
しかし、既存のプロアクティブディフェンスアプローチは、視覚的品質、検出精度、ソース追跡能力に関して不満足な結果を示す。
本研究では,Deepfakeの顔スワップに対する検出とソーストレースを同時に行う,最初の頑健なアイデンティティ認識型透かしフレームワークを提案する。
画像内容に関するアイデンティティセマンティクスをウォーターマークに割り当て,予測不能かつ可逆的なカオス暗号システムを考案し,ウォーターマークの機密性を確保する。
透かしは、エンコーダ・デコーダ・フレームワークと逆画像操作を共同で訓練することで符号化・復元される。
クロスデータセットとクロスマニピュレーションの両方の設定で、Deepfakeの顔スワップに対する最先端の性能を示す。
関連論文リスト
- Dual Defense: Adversarial, Traceable, and Invisible Robust Watermarking
against Face Swapping [13.659927216999407]
顔交換に代表される深い偽造の悪意ある応用は、誤情報拡散や身元確認詐欺のようなセキュリティ上の脅威を導入している。
本稿では,デュアルディフェンス(Dual Defense)と呼ばれる,トレーサビリティと敵意を組み合わせた新たなアクティブディフェンス機構を提案する。
ターゲットの顔に単一の堅牢な透かしを埋め込んで、悪意のある顔交換の突然のケースに積極的に反応する。
論文 参考訳(メタデータ) (2023-10-25T10:39:51Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Robustness of AI-Image Detectors: Fundamental Limits and Practical
Attacks [47.04650443491879]
我々は、透かしやディープフェイク検出器を含む様々なAI画像検出器の堅牢性を分析する。
ウォーターマーキング手法は,攻撃者が実際の画像をウォーターマーキングとして識別することを目的としたスプーフ攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2023-09-29T18:30:29Z) - T2IW: Joint Text to Image & Watermark Generation [74.20148555503127]
画像と透かし(T2IW)への共同テキスト生成のための新しいタスクを提案する。
このT2IWスキームは、意味的特徴と透かし信号が画素内で互換性を持つように強制することにより、複合画像を生成する際に、画像品質に最小限のダメージを与える。
提案手法により,画像品質,透かしの可視性,透かしの堅牢性などの顕著な成果が得られた。
論文 参考訳(メタデータ) (2023-09-07T16:12:06Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - PRO-Face S: Privacy-preserving Reversible Obfuscation of Face Images via
Secure Flow [69.78820726573935]
保護フローベースモデルを用いて,プライバシ保護による顔画像の可逆難読化(Reversible Obfuscation of Face image)を略してpro-Face Sと命名する。
本フレームワークでは、Invertible Neural Network(INN)を使用して、入力画像と、その事前難読化されたフォームとを処理し、事前難読化された画像と視覚的に近似したプライバシー保護された画像を生成する。
論文 参考訳(メタデータ) (2023-07-18T10:55:54Z) - Building an Invisible Shield for Your Portrait against Deepfakes [34.65356811439098]
本稿では,画像のプロアクティブな保護を目的とした新しいフレームワーク,Integity Encryptorを提案する。
提案手法では,重要な顔属性と密接な関係を持つメッセージを,秘密に符号化する。
修正された顔属性は、デコードされたメッセージの比較を通じて、操作された画像を検出する手段として機能する。
論文 参考訳(メタデータ) (2023-05-22T10:01:28Z) - SepMark: Deep Separable Watermarking for Unified Source Tracing and
Deepfake Detection [15.54035395750232]
悪意あるディープフェイクは、本物と偽造された顔の区別に関して激しい対立を引き起こしている。
我々はソーストレースとディープフェイク検出のための統合フレームワークを提供するSepMarkを提案する。
論文 参考訳(メタデータ) (2023-05-10T17:15:09Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - FaceSigns: Semi-Fragile Neural Watermarks for Media Authentication and
Countering Deepfakes [25.277040616599336]
近年のリアルな画像合成技術やビデオ合成技術の発展により、ディープフェイクやメディアの操作は目覚ましい脅威になりつつある。
本稿では,画像画素に埋め込まれた見えない秘密メッセージを検証することによってメディア認証を可能にする,深層学習に基づく半フレギール透かし手法を提案する。
論文 参考訳(メタデータ) (2022-04-05T03:29:30Z) - Dual Spoof Disentanglement Generation for Face Anti-spoofing with Depth
Uncertainty Learning [54.15303628138665]
フェース・アンチ・スプーフィング(FAS)は、顔認識システムが提示攻撃を防ぐ上で重要な役割を担っている。
既存のフェース・アンチ・スプーフィング・データセットは、アイデンティティと重要なばらつきが不十分なため、多様性を欠いている。
我々は「生成によるアンチ・スプーフィング」によりこの問題に対処するデュアル・スポット・ディアンタングメント・ジェネレーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T15:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。