論文の概要: FakeTracer: Catching Face-swap DeepFakes via Implanting Traces in Training
- arxiv url: http://arxiv.org/abs/2307.14593v2
- Date: Sun, 21 Apr 2024 09:02:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-24 01:02:16.558610
- Title: FakeTracer: Catching Face-swap DeepFakes via Implanting Traces in Training
- Title(参考訳): FakeTracer: トレーニングの痕跡を埋め込んだフェイススワップディープフェイク
- Authors: Pu Sun, Honggang Qi, Yuezun Li, Siwei Lyu,
- Abstract要約: Face-swap DeepFakeは、AIベースの顔偽造技術だ。
顔のプライバシーが高いため、この手法の誤用は深刻な社会的懸念を引き起こす可能性がある。
本稿では,FakeTracerと呼ばれる新しいプロアクティブ防御手法について述べる。
- 参考スコア(独自算出の注目度): 36.158715089667034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face-swap DeepFake is an emerging AI-based face forgery technique that can replace the original face in a video with a generated face of the target identity while retaining consistent facial attributes such as expression and orientation. Due to the high privacy of faces, the misuse of this technique can raise severe social concerns, drawing tremendous attention to defend against DeepFakes recently. In this paper, we describe a new proactive defense method called FakeTracer to expose face-swap DeepFakes via implanting traces in training. Compared to general face-synthesis DeepFake, the face-swap DeepFake is more complex as it involves identity change, is subjected to the encoding-decoding process, and is trained unsupervised, increasing the difficulty of implanting traces into the training phase. To effectively defend against face-swap DeepFake, we design two types of traces, sustainable trace (STrace) and erasable trace (ETrace), to be added to training faces. During the training, these manipulated faces affect the learning of the face-swap DeepFake model, enabling it to generate faces that only contain sustainable traces. In light of these two traces, our method can effectively expose DeepFakes by identifying them. Extensive experiments corroborate the efficacy of our method on defending against face-swap DeepFake.
- Abstract(参考訳): Face-swap DeepFakeは、AIベースの顔偽造技術で、表現や方向などの一貫した顔属性を保持しながら、ビデオ中の元の顔をターゲットアイデンティティの生成された顔に置き換えることができる。
顔のプライバシーが高いため、この手法の誤用は深刻な社会的懸念を生じさせ、最近DeepFakesに対する防衛に多大な注意を払っている。
本稿では,FakeTracerと呼ばれる新しいプロアクティブ防御手法について述べる。
顔合成のDeepFakeと比較すると、顔スワップのDeepFakeは、アイデンティティの変更を伴うため、より複雑であり、エンコーディング・デコードプロセスの対象となり、教師なしで訓練され、トレースをトレーニングフェーズに埋め込むのが困難になる。
フェイススワップのDeepFakeに対して効果的に防御するために、トレーニング顔に追加される2種類のトレース、持続可能なトレース(STrace)と消去可能なトレース(ETrace)を設計する。
トレーニング中、これらの操作された顔は、フェイススワップのDeepFakeモデルの学習に影響を与えるため、持続可能なトレースのみを含む顔を生成することができる。
これら2つの痕跡から,本手法はディープフェイクを同定して効果的に露出することができる。
広範囲にわたる実験は,顔洗面のDeepFakeに対する防御法の有効性を裏付けるものである。
関連論文リスト
- FaceTracer: Unveiling Source Identities from Swapped Face Images and Videos for Fraud Prevention [68.07489215110894]
FaceTracerは、元人物の身元を、交換された顔画像やビデオから追跡するように設計されたフレームワークである。
実験では、FaceTracerは元の人物をスワップされたコンテンツで特定し、不正行為に関わる悪意あるアクターの追跡を可能にした。
論文 参考訳(メタデータ) (2024-12-11T04:00:17Z) - Hiding Faces in Plain Sight: Defending DeepFakes by Disrupting Face Detection [56.289631511616975]
本稿では,プロアクティブなディープフェイク防衛フレームワークであるエム・フェイスポージョンの有効性について検討し,個人がディープフェイクビデオの被害者にならないようにした。
FacePoisonをベースとしたEm VideoFacePoisonは、各フレームに個別に適用するのではなく、ビデオフレーム間でFacePoisonを伝搬する戦略である。
本手法は5つの顔検出器で検証され,11種類のDeepFakeモデルに対する広範な実験により,顔検出器を破壊してDeepFakeの発生を妨げる効果が示された。
論文 参考訳(メタデータ) (2024-12-02T04:17:48Z) - Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - Deepfake Face Traceability with Disentangling Reversing Network [40.579533545888516]
Deepfakeの顔は、個人情報のプライバシーを侵害するだけでなく、一般大衆を混乱させ、大きな社会的害をもたらす。
現在のディープフェイク検出は、真と偽を区別するレベルに留まり、偽の顔に対応する元の本物の顔を追跡できない。
本稿は,「それを知り,どのように起こったのか」という,フェイスディープフェイク,アクティブな法医学に関する興味深い質問の先駆者である。
論文 参考訳(メタデータ) (2022-07-08T03:05:28Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - One Shot Face Swapping on Megapixels [65.47443090320955]
本稿では,顔面スワッピング(略してMegaFS)における最初のメガピクセルレベル法を提案する。
本手法の成功に対する3つの新しい貢献は,顔の完全な表現,安定したトレーニング,限られたメモリ使用量である。
論文 参考訳(メタデータ) (2021-05-11T10:41:47Z) - Landmark Breaker: Obstructing DeepFake By Disturbing Landmark Extraction [40.71503677067645]
ランドマークブレーカー(Landmark Breaker)は、顔のランドマーク抽出を妨害する最初の専用手法である。
私たちのモチベーションは、顔のランドマーク抽出を乱すことが、DeepFakeの品質を劣化させるために、入力顔のアライメントに影響を与えることです。
DeepFake生成後にのみ動作する検出方法と比較して、Landmark BreakerはDeepFake生成を防ぐために一歩前進する。
論文 参考訳(メタデータ) (2021-02-01T12:27:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。