論文の概要: Deepfake Face Traceability with Disentangling Reversing Network
- arxiv url: http://arxiv.org/abs/2207.03666v1
- Date: Fri, 8 Jul 2022 03:05:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-11 13:38:42.071508
- Title: Deepfake Face Traceability with Disentangling Reversing Network
- Title(参考訳): disentangling reversing networkを用いたdeepfake顔トレーサビリティ
- Authors: Jiaxin Ai, Zhongyuan Wang, Baojin Huang and Zhen Han
- Abstract要約: Deepfakeの顔は、個人情報のプライバシーを侵害するだけでなく、一般大衆を混乱させ、大きな社会的害をもたらす。
現在のディープフェイク検出は、真と偽を区別するレベルに留まり、偽の顔に対応する元の本物の顔を追跡できない。
本稿は,「それを知り,どのように起こったのか」という,フェイスディープフェイク,アクティブな法医学に関する興味深い質問の先駆者である。
- 参考スコア(独自算出の注目度): 40.579533545888516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deepfake face not only violates the privacy of personal identity, but also
confuses the public and causes huge social harm. The current deepfake detection
only stays at the level of distinguishing true and false, and cannot trace the
original genuine face corresponding to the fake face, that is, it does not have
the ability to trace the source of evidence. The deepfake countermeasure
technology for judicial forensics urgently calls for deepfake traceability.
This paper pioneers an interesting question about face deepfake, active
forensics that "know it and how it happened". Given that deepfake faces do not
completely discard the features of original faces, especially facial
expressions and poses, we argue that original faces can be approximately
speculated from their deepfake counterparts. Correspondingly, we design a
disentangling reversing network that decouples latent space features of
deepfake faces under the supervision of fake-original face pair samples to
infer original faces in reverse.
- Abstract(参考訳): deepfake faceは、個人認証のプライバシーを侵害するだけでなく、国民を混乱させ、大きな社会的被害を引き起こす。
現在のディープフェイク検出は、真偽を識別するレベルに留まり、偽の顔に対応する元の本物の顔、すなわち証拠の出所を追跡する能力を持たない。
司法法医学におけるディープフェイク対策技術は、ディープフェイクトレーサビリティを緊急に要求する。
この論文は、フェイス・ディープフェイク(face deepfake)に関する興味深い質問の先駆者となる。
ディープフェイクの顔は、オリジナルの顔、特に表情やポーズの特徴を完全に捨てるものではないので、オリジナルの顔は、ディープフェイク顔とほぼ推測できると主張している。
それに対応して、偽の顔対サンプルの監督の下で、ディープフェイク顔の潜伏空間特徴を分離し、元の顔の逆推定を行う、遠方逆転ネットワークを設計する。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - IDRetracor: Towards Visual Forensics Against Malicious Face Swapping [30.804429527783395]
ディープフェイク法に基づく顔交換技術は、個人認証のセキュリティに重大な社会的リスクをもたらす。
本稿では,対象の顔と偽の顔とを逆マッピングにより追跡する,顔追跡という新しいタスクを提案する。
我々は,IDRetracorが定量的,定性的両面から有望なリトラシング性能を示すことを示す。
論文 参考訳(メタデータ) (2024-08-13T04:53:48Z) - FakeTracer: Catching Face-swap DeepFakes via Implanting Traces in Training [36.158715089667034]
Face-swap DeepFakeは、AIベースの顔偽造技術だ。
顔のプライバシーが高いため、この手法の誤用は深刻な社会的懸念を引き起こす可能性がある。
本稿では,FakeTracerと呼ばれる新しいプロアクティブ防御手法について述べる。
論文 参考訳(メタデータ) (2023-07-27T02:36:13Z) - ReliableSwap: Boosting General Face Swapping Via Reliable Supervision [9.725105108879717]
本稿では,訓練中に対象とソースの同一性が異なる場合のイメージレベルのガイダンスとして機能する,サイクルトリプレットと呼ばれる信頼性の高い監視機能を構築することを提案する。
具体的には,顔の再現とブレンディング技術を用いて,前もって実際の画像からスワップされた顔の合成を行う。
フェーススワッピングフレームワークであるReliableSwapは、既存のフェースワップネットワークの性能を無視できるオーバーヘッドで向上させることができる。
論文 参考訳(メタデータ) (2023-06-08T17:01:14Z) - FaceMAE: Privacy-Preserving Face Recognition via Masked Autoencoders [81.21440457805932]
顔のプライバシと認識性能を同時に考慮する新しいフレームワークFaceMAEを提案する。
ランダムにマスクされた顔画像は、FaceMAEの再構築モジュールのトレーニングに使用される。
また、いくつかの公開顔データセット上で十分なプライバシー保護顔認証を行う。
論文 参考訳(メタデータ) (2022-05-23T07:19:42Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Invertible Mask Network for Face Privacy-Preserving [101.08196206784376]
Invertible "Mask" Network (IMN) に基づく顔のプライバシー保護手法を提案する。
提案手法は保護面のプライバシーを効果的に保護するだけでなく,マスク面から保護面をほぼ完全に復元する。
論文 参考訳(メタデータ) (2022-04-19T13:44:46Z) - FaceGuard: Proactive Deepfake Detection [15.938409771740643]
プロアクティブなディープフェイク検出フレームワークであるFaceGuardを提案する。
FaceGuardは、実際の顔画像に透かしを埋め込んだ後、ソーシャルメディアに掲載する。
抽出された透かしが個人の真実とうまく一致しない場合、顔画像は偽物であると予測する。
論文 参考訳(メタデータ) (2021-09-13T02:36:25Z) - Landmark Breaker: Obstructing DeepFake By Disturbing Landmark Extraction [40.71503677067645]
ランドマークブレーカー(Landmark Breaker)は、顔のランドマーク抽出を妨害する最初の専用手法である。
私たちのモチベーションは、顔のランドマーク抽出を乱すことが、DeepFakeの品質を劣化させるために、入力顔のアライメントに影響を与えることです。
DeepFake生成後にのみ動作する検出方法と比較して、Landmark BreakerはDeepFake生成を防ぐために一歩前進する。
論文 参考訳(メタデータ) (2021-02-01T12:27:08Z) - DeepFake Detection Based on the Discrepancy Between the Face and its
Context [94.47879216590813]
単一画像における顔のスワップやその他のアイデンティティ操作を検出する手法を提案する。
提案手法は, (i) 厳密なセマンティックセグメンテーションによって境界付けられた顔領域を考慮した顔識別ネットワークと, (ii) 顔コンテキストを考慮したコンテキスト認識ネットワークの2つのネットワークを含む。
本稿では,2つのネットワークからの認識信号を用いて,そのような不一致を検出する手法について述べる。
提案手法は,FaceForensics++,Celeb-DF-v2,DFDCベンチマークを用いて顔検出を行い,未知の手法で生成した偽物の検出を一般化する。
論文 参考訳(メタデータ) (2020-08-27T17:04:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。