論文の概要: Building an Invisible Shield for Your Portrait against Deepfakes
- arxiv url: http://arxiv.org/abs/2305.12881v1
- Date: Mon, 22 May 2023 10:01:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 17:01:55.797430
- Title: Building an Invisible Shield for Your Portrait against Deepfakes
- Title(参考訳): ディープフェイクに対するポートレートに見えないシールドを作る
- Authors: Jiazhi Guan, Tianshu Hu, Hang Zhou, Zhizhi Guo, Lirui Deng, Chengbin
Quan, Errui Ding, Youjian Zhao
- Abstract要約: 本稿では,画像のプロアクティブな保護を目的とした新しいフレームワーク,Integity Encryptorを提案する。
提案手法では,重要な顔属性と密接な関係を持つメッセージを,秘密に符号化する。
修正された顔属性は、デコードされたメッセージの比較を通じて、操作された画像を検出する手段として機能する。
- 参考スコア(独自算出の注目度): 34.65356811439098
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The issue of detecting deepfakes has garnered significant attention in the
research community, with the goal of identifying facial manipulations for abuse
prevention. Although recent studies have focused on developing generalized
models that can detect various types of deepfakes, their performance is not
always be reliable and stable, which poses limitations in real-world
applications. Instead of learning a forgery detector, in this paper, we propose
a novel framework - Integrity Encryptor, aiming to protect portraits in a
proactive strategy. Our methodology involves covertly encoding messages that
are closely associated with key facial attributes into authentic images prior
to their public release. Unlike authentic images, where the hidden messages can
be extracted with precision, manipulating the facial attributes through
deepfake techniques can disrupt the decoding process. Consequently, the
modified facial attributes serve as a mean of detecting manipulated images
through a comparison of the decoded messages. Our encryption approach is
characterized by its brevity and efficiency, and the resulting method exhibits
a good robustness against typical image processing traces, such as image
degradation and noise. When compared to baselines that struggle to detect
deepfakes in a black-box setting, our method utilizing conditional encryption
showcases superior performance when presented with a range of different types
of forgeries. In experiments conducted on our protected data, our approach
outperforms existing state-of-the-art methods by a significant margin.
- Abstract(参考訳): ディープフェイクの検出に関する問題は、乱用防止のために顔操作を特定することを目的として、研究コミュニティに大きな注目を集めている。
近年の研究では、様々な種類のディープフェイクを検知できる一般化モデルの開発に焦点が当てられているが、その性能は必ずしも信頼性が高く安定したものではなく、現実のアプリケーションに制限が生じる。
本稿では,偽造検知器を学習する代わりに,プロアクティブ戦略で肖像画を保護することを目的とした,新たなフレームワーク,Integity Encryptorを提案する。
提案手法では,公開前に重要顔属性と密接な関連のあるメッセージを真正な画像に符号化する。
隠されたメッセージを精度良く抽出できる認証画像とは異なり、ディープフェイク技術によって顔属性を操作することで復号処理を妨害することができる。
したがって、修正された顔属性は、復号されたメッセージの比較を通して操作された画像を検出する手段となる。
本手法は,その簡潔さと効率を特徴とし,画像劣化やノイズなどの典型的な画像処理トレースに対して良好な堅牢性を示す。
ブラックボックス設定でディープフェイクを検出するのに苦労しているベースラインと比較すると,条件付き暗号を用いた手法は,様々な種類の偽造品を提示した場合,優れた性能を示す。
保護されたデータを用いて行った実験では、既存の最先端手法よりもかなりの差で性能が向上した。
関連論文リスト
- DeepFidelity: Perceptual Forgery Fidelity Assessment for Deepfake
Detection [67.3143177137102]
ディープフェイク検出(Deepfake detection)とは、画像やビデオにおいて、人工的に生成された顔や編集された顔を検出すること。
本稿では,実顔と偽顔とを適応的に識別するDeepFidelityという新しいDeepfake検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-07T07:19:45Z) - Robust Identity Perceptual Watermark Against Deepfake Face Swapping [8.879064049275977]
ディープフェイク・フェイススワップは、ディープジェネレーティブ・モデルの急速な開発で重要なプライバシー問題を引き起こしている。
本稿では,Deepfakeの顔スワップに対する検出とソーストレースを同時に行う,最初の堅牢なアイデンティティ認識型透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-02T16:04:32Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Improving Cross-dataset Deepfake Detection with Deep Information
Decomposition [57.284370468207214]
ディープフェイク技術は、セキュリティと社会的信頼に重大な脅威をもたらす。
既存の検出方法は、クロスデータセットのシナリオに直面した場合、パフォーマンスの急激な低下に悩まされる。
本稿では,深層情報分解(DID)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Evading Forensic Classifiers with Attribute-Conditioned Adversarial
Faces [6.105361899083232]
本研究では,特定の属性セットを用いて,敵対的な偽の顔を生成することができることを示す。
本稿では,StyleGANの機能空間内の逆潜時符号を探索するフレームワークを提案する。
また,メタラーニングに基づく最適化手法を提案し,未知のターゲットモデル上でのトランスファー可能な性能を実現する。
論文 参考訳(メタデータ) (2023-06-22T17:59:55Z) - Information-containing Adversarial Perturbation for Combating Facial
Manipulation Systems [19.259372985094235]
ディープラーニングシステムの悪意ある応用は個人のプライバシーと評判に深刻な脅威をもたらす。
IAP(Information- containing Adversarial Perturbation)と呼ばれる新しい2層保護手法を提案する。
エンコーダを用いて、顔画像とその識別メッセージを、複数の顔操作システムを妨害できるクロスモデル対向例にマッピングする。
論文 参考訳(メタデータ) (2023-03-21T06:48:14Z) - Detect and Locate: A Face Anti-Manipulation Approach with Semantic and
Noise-level Supervision [67.73180660609844]
本稿では,画像中の偽造顔を効率的に検出する,概念的にシンプルだが効果的な方法を提案する。
提案手法は,画像に関する意味の高い意味情報を提供するセグメンテーションマップに依存する。
提案モデルでは,最先端検出精度と顕著なローカライゼーション性能を実現する。
論文 参考訳(メタデータ) (2021-07-13T02:59:31Z) - Robust Face-Swap Detection Based on 3D Facial Shape Information [59.32489266682952]
顔のスワップ画像やビデオは、悪意ある攻撃者を惹きつけ、重要な人物の信用を損ねている。
以前のピクセルレベルのアーティファクトに基づく検出技術は、常に不明瞭なパターンにフォーカスするが、利用可能なセマンティックなヒントは無視する。
キーフィギュアの顔・スワップ検出のための外観・形状特徴をフル活用するための生体情報に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-04-28T09:35:48Z) - DeepBlur: A Simple and Effective Method for Natural Image Obfuscation [4.80165284612342]
In this present DeepBlur, a simple yet effective method for image obfuscation by blurring in the Latent space of a unconditionally pre-trained generative model。
効率性や画質の面で既存の手法と比較し,最先端のディープラーニングモデルと産業製品とを比較した。
論文 参考訳(メタデータ) (2021-03-31T19:31:26Z) - Perception Matters: Exploring Imperceptible and Transferable
Anti-forensics for GAN-generated Fake Face Imagery Detection [28.620523463372177]
GAN(Generative Adversarial Network)は、実際の顔写真と知覚的に区別できない、写真リアルな偽の顔画像を生成することができる。
ここでは、敵対的攻撃に基づく偽顔画像検出のための、よりテクスチアンペアブルでテクスティットトランスファーブルなアンチフォレンジックを探索する。
本稿では,視覚的知覚を考慮し,色領域が変化した場合に,画像の反法医学に適する新たな対角攻撃法を提案する。
論文 参考訳(メタデータ) (2020-10-29T18:54:06Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。