論文の概要: Deepfake Face Traceability with Disentangling Reversing Network
- arxiv url: http://arxiv.org/abs/2207.03666v1
- Date: Fri, 8 Jul 2022 03:05:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-11 13:38:42.071508
- Title: Deepfake Face Traceability with Disentangling Reversing Network
- Title(参考訳): disentangling reversing networkを用いたdeepfake顔トレーサビリティ
- Authors: Jiaxin Ai, Zhongyuan Wang, Baojin Huang and Zhen Han
- Abstract要約: Deepfakeの顔は、個人情報のプライバシーを侵害するだけでなく、一般大衆を混乱させ、大きな社会的害をもたらす。
現在のディープフェイク検出は、真と偽を区別するレベルに留まり、偽の顔に対応する元の本物の顔を追跡できない。
本稿は,「それを知り,どのように起こったのか」という,フェイスディープフェイク,アクティブな法医学に関する興味深い質問の先駆者である。
- 参考スコア(独自算出の注目度): 40.579533545888516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deepfake face not only violates the privacy of personal identity, but also
confuses the public and causes huge social harm. The current deepfake detection
only stays at the level of distinguishing true and false, and cannot trace the
original genuine face corresponding to the fake face, that is, it does not have
the ability to trace the source of evidence. The deepfake countermeasure
technology for judicial forensics urgently calls for deepfake traceability.
This paper pioneers an interesting question about face deepfake, active
forensics that "know it and how it happened". Given that deepfake faces do not
completely discard the features of original faces, especially facial
expressions and poses, we argue that original faces can be approximately
speculated from their deepfake counterparts. Correspondingly, we design a
disentangling reversing network that decouples latent space features of
deepfake faces under the supervision of fake-original face pair samples to
infer original faces in reverse.
- Abstract(参考訳): deepfake faceは、個人認証のプライバシーを侵害するだけでなく、国民を混乱させ、大きな社会的被害を引き起こす。
現在のディープフェイク検出は、真偽を識別するレベルに留まり、偽の顔に対応する元の本物の顔、すなわち証拠の出所を追跡する能力を持たない。
司法法医学におけるディープフェイク対策技術は、ディープフェイクトレーサビリティを緊急に要求する。
この論文は、フェイス・ディープフェイク(face deepfake)に関する興味深い質問の先駆者となる。
ディープフェイクの顔は、オリジナルの顔、特に表情やポーズの特徴を完全に捨てるものではないので、オリジナルの顔は、ディープフェイク顔とほぼ推測できると主張している。
それに対応して、偽の顔対サンプルの監督の下で、ディープフェイク顔の潜伏空間特徴を分離し、元の顔の逆推定を行う、遠方逆転ネットワークを設計する。
関連論文リスト
- FaceTracer: Unveiling Source Identities from Swapped Face Images and Videos for Fraud Prevention [68.07489215110894]
FaceTracerは、元人物の身元を、交換された顔画像やビデオから追跡するように設計されたフレームワークである。
実験では、FaceTracerは元の人物をスワップされたコンテンツで特定し、不正行為に関わる悪意あるアクターの追跡を可能にした。
論文 参考訳(メタデータ) (2024-12-11T04:00:17Z) - Hiding Faces in Plain Sight: Defending DeepFakes by Disrupting Face Detection [56.289631511616975]
本稿では,プロアクティブなディープフェイク防衛フレームワークであるエム・フェイスポージョンの有効性について検討し,個人がディープフェイクビデオの被害者にならないようにした。
FacePoisonをベースとしたEm VideoFacePoisonは、各フレームに個別に適用するのではなく、ビデオフレーム間でFacePoisonを伝搬する戦略である。
本手法は5つの顔検出器で検証され,11種類のDeepFakeモデルに対する広範な実験により,顔検出器を破壊してDeepFakeの発生を妨げる効果が示された。
論文 参考訳(メタデータ) (2024-12-02T04:17:48Z) - Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - IDRetracor: Towards Visual Forensics Against Malicious Face Swapping [30.804429527783395]
ディープフェイク法に基づく顔交換技術は、個人認証のセキュリティに重大な社会的リスクをもたらす。
本稿では,対象の顔と偽の顔とを逆マッピングにより追跡する,顔追跡という新しいタスクを提案する。
我々は,IDRetracorが定量的,定性的両面から有望なリトラシング性能を示すことを示す。
論文 参考訳(メタデータ) (2024-08-13T04:53:48Z) - FakeTracer: Catching Face-swap DeepFakes via Implanting Traces in Training [36.158715089667034]
Face-swap DeepFakeは、AIベースの顔偽造技術だ。
顔のプライバシーが高いため、この手法の誤用は深刻な社会的懸念を引き起こす可能性がある。
本稿では,FakeTracerと呼ばれる新しいプロアクティブ防御手法について述べる。
論文 参考訳(メタデータ) (2023-07-27T02:36:13Z) - ReliableSwap: Boosting General Face Swapping Via Reliable Supervision [9.725105108879717]
本稿では,訓練中に対象とソースの同一性が異なる場合のイメージレベルのガイダンスとして機能する,サイクルトリプレットと呼ばれる信頼性の高い監視機能を構築することを提案する。
具体的には,顔の再現とブレンディング技術を用いて,前もって実際の画像からスワップされた顔の合成を行う。
フェーススワッピングフレームワークであるReliableSwapは、既存のフェースワップネットワークの性能を無視できるオーバーヘッドで向上させることができる。
論文 参考訳(メタデータ) (2023-06-08T17:01:14Z) - FaceMAE: Privacy-Preserving Face Recognition via Masked Autoencoders [81.21440457805932]
顔のプライバシと認識性能を同時に考慮する新しいフレームワークFaceMAEを提案する。
ランダムにマスクされた顔画像は、FaceMAEの再構築モジュールのトレーニングに使用される。
また、いくつかの公開顔データセット上で十分なプライバシー保護顔認証を行う。
論文 参考訳(メタデータ) (2022-05-23T07:19:42Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。