論文の概要: FakeTracer: Catching Face-swap DeepFakes via Implanting Traces in Training
- arxiv url: http://arxiv.org/abs/2307.14593v2
- Date: Sun, 21 Apr 2024 09:02:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-24 01:02:16.558610
- Title: FakeTracer: Catching Face-swap DeepFakes via Implanting Traces in Training
- Title(参考訳): FakeTracer: トレーニングの痕跡を埋め込んだフェイススワップディープフェイク
- Authors: Pu Sun, Honggang Qi, Yuezun Li, Siwei Lyu,
- Abstract要約: Face-swap DeepFakeは、AIベースの顔偽造技術だ。
顔のプライバシーが高いため、この手法の誤用は深刻な社会的懸念を引き起こす可能性がある。
本稿では,FakeTracerと呼ばれる新しいプロアクティブ防御手法について述べる。
- 参考スコア(独自算出の注目度): 36.158715089667034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face-swap DeepFake is an emerging AI-based face forgery technique that can replace the original face in a video with a generated face of the target identity while retaining consistent facial attributes such as expression and orientation. Due to the high privacy of faces, the misuse of this technique can raise severe social concerns, drawing tremendous attention to defend against DeepFakes recently. In this paper, we describe a new proactive defense method called FakeTracer to expose face-swap DeepFakes via implanting traces in training. Compared to general face-synthesis DeepFake, the face-swap DeepFake is more complex as it involves identity change, is subjected to the encoding-decoding process, and is trained unsupervised, increasing the difficulty of implanting traces into the training phase. To effectively defend against face-swap DeepFake, we design two types of traces, sustainable trace (STrace) and erasable trace (ETrace), to be added to training faces. During the training, these manipulated faces affect the learning of the face-swap DeepFake model, enabling it to generate faces that only contain sustainable traces. In light of these two traces, our method can effectively expose DeepFakes by identifying them. Extensive experiments corroborate the efficacy of our method on defending against face-swap DeepFake.
- Abstract(参考訳): Face-swap DeepFakeは、AIベースの顔偽造技術で、表現や方向などの一貫した顔属性を保持しながら、ビデオ中の元の顔をターゲットアイデンティティの生成された顔に置き換えることができる。
顔のプライバシーが高いため、この手法の誤用は深刻な社会的懸念を生じさせ、最近DeepFakesに対する防衛に多大な注意を払っている。
本稿では,FakeTracerと呼ばれる新しいプロアクティブ防御手法について述べる。
顔合成のDeepFakeと比較すると、顔スワップのDeepFakeは、アイデンティティの変更を伴うため、より複雑であり、エンコーディング・デコードプロセスの対象となり、教師なしで訓練され、トレースをトレーニングフェーズに埋め込むのが困難になる。
フェイススワップのDeepFakeに対して効果的に防御するために、トレーニング顔に追加される2種類のトレース、持続可能なトレース(STrace)と消去可能なトレース(ETrace)を設計する。
トレーニング中、これらの操作された顔は、フェイススワップのDeepFakeモデルの学習に影響を与えるため、持続可能なトレースのみを含む顔を生成することができる。
これら2つの痕跡から,本手法はディープフェイクを同定して効果的に露出することができる。
広範囲にわたる実験は,顔洗面のDeepFakeに対する防御法の有効性を裏付けるものである。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - G2Face: High-Fidelity Reversible Face Anonymization via Generative and Geometric Priors [71.69161292330504]
可逆顔匿名化(Reversible face anonymization)は、顔画像の繊細なアイデンティティ情報を、合成された代替品に置き換えようとしている。
本稿では,Gtextsuperscript2Faceを提案する。
提案手法は,高データの有効性を保ちながら,顔の匿名化と回復において既存の最先端技術よりも優れる。
論文 参考訳(メタデータ) (2024-08-18T12:36:47Z) - ReliableSwap: Boosting General Face Swapping Via Reliable Supervision [9.725105108879717]
本稿では,訓練中に対象とソースの同一性が異なる場合のイメージレベルのガイダンスとして機能する,サイクルトリプレットと呼ばれる信頼性の高い監視機能を構築することを提案する。
具体的には,顔の再現とブレンディング技術を用いて,前もって実際の画像からスワップされた顔の合成を行う。
フェーススワッピングフレームワークであるReliableSwapは、既存のフェースワップネットワークの性能を無視できるオーバーヘッドで向上させることができる。
論文 参考訳(メタデータ) (2023-06-08T17:01:14Z) - Deepfake Face Traceability with Disentangling Reversing Network [40.579533545888516]
Deepfakeの顔は、個人情報のプライバシーを侵害するだけでなく、一般大衆を混乱させ、大きな社会的害をもたらす。
現在のディープフェイク検出は、真と偽を区別するレベルに留まり、偽の顔に対応する元の本物の顔を追跡できない。
本稿は,「それを知り,どのように起こったのか」という,フェイスディープフェイク,アクティブな法医学に関する興味深い質問の先駆者である。
論文 参考訳(メタデータ) (2022-07-08T03:05:28Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Generating Master Faces for Dictionary Attacks with a Network-Assisted
Latent Space Evolution [68.8204255655161]
マスターフェイス(英: master face)とは、人口の大部分が顔に基づくアイデンティティ認証を通した顔画像である。
そこで我々は,StyleGANフェイスジェネレータの潜伏埋め込み空間における進化的アルゴリズムを用いて,これらの顔の最適化を行う。
論文 参考訳(メタデータ) (2021-08-01T12:55:23Z) - One Shot Face Swapping on Megapixels [65.47443090320955]
本稿では,顔面スワッピング(略してMegaFS)における最初のメガピクセルレベル法を提案する。
本手法の成功に対する3つの新しい貢献は,顔の完全な表現,安定したトレーニング,限られたメモリ使用量である。
論文 参考訳(メタデータ) (2021-05-11T10:41:47Z) - Landmark Breaker: Obstructing DeepFake By Disturbing Landmark Extraction [40.71503677067645]
ランドマークブレーカー(Landmark Breaker)は、顔のランドマーク抽出を妨害する最初の専用手法である。
私たちのモチベーションは、顔のランドマーク抽出を乱すことが、DeepFakeの品質を劣化させるために、入力顔のアライメントに影響を与えることです。
DeepFake生成後にのみ動作する検出方法と比較して、Landmark BreakerはDeepFake生成を防ぐために一歩前進する。
論文 参考訳(メタデータ) (2021-02-01T12:27:08Z) - Defending against GAN-based Deepfake Attacks via Transformation-aware
Adversarial Faces [36.87244915810356]
Deepfakeは、機械学習モデルを活用するフェイススワッピング攻撃のカテゴリである。
本稿では,Deepfake攻撃に対する防御手段として,逆向きに乱れする新しい変形認識顔を提案する。
また, アンサンブルをベースとしたアプローチを用いて, GANベースのディープフェイク型に対する防御ロバスト性を高めることを提案する。
論文 参考訳(メタデータ) (2020-06-12T18:51:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。