論文の概要: ID-Reveal: Identity-aware DeepFake Video Detection
- arxiv url: http://arxiv.org/abs/2012.02512v2
- Date: Fri, 23 Apr 2021 07:43:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 20:42:18.230027
- Title: ID-Reveal: Identity-aware DeepFake Video Detection
- Title(参考訳): ID-Reveal:ID対応のDeepFakeビデオ検出
- Authors: Davide Cozzolino and Andreas R\"ossler and Justus Thies and Matthias
Nie{\ss}ner and Luisa Verdoliva
- Abstract要約: ID-Reveal(ID-Reveal)は、時間的顔の特徴を学習する新しいアプローチだ。
偽物のトレーニングデータは必要ありませんが、実際のビデオでトレーニングするだけです。
高圧縮映像における顔再現の精度は平均15%以上向上した。
- 参考スコア(独自算出の注目度): 24.79483180234883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A major challenge in DeepFake forgery detection is that state-of-the-art
algorithms are mostly trained to detect a specific fake method. As a result,
these approaches show poor generalization across different types of facial
manipulations, e.g., from face swapping to facial reenactment. To this end, we
introduce ID-Reveal, a new approach that learns temporal facial features,
specific of how a person moves while talking, by means of metric learning
coupled with an adversarial training strategy. The advantage is that we do not
need any training data of fakes, but only train on real videos. Moreover, we
utilize high-level semantic features, which enables robustess to widespread and
disruptive forms of post-processing. We perform a thorough experimental
analysis on several publicly available benchmarks. Compared to state of the
art, our method improves generalization and is more robust to low-quality
videos, that are usually spread over social networks. In particular, we obtain
an average improvement of more than 15% in terms of accuracy for facial
reenactment on high compressed videos.
- Abstract(参考訳): deepfake forgery検出の大きな課題は、最先端アルゴリズムが特定のフェイクメソッドを検出するように訓練されていることだ。
結果として、これらのアプローチは、顔交換から顔の再現に至るまで、さまざまな種類の顔操作の一般化が不十分であることを示す。
この目的のために, 対人訓練戦略と組み合わせたメトリック学習により, 発話中の人物の動きを具体化した, 時間的顔の特徴を学習する新しいアプローチであるID-Revealを導入する。
利点は、偽物のトレーニングデータを一切必要とせず、実際のビデオのみをトレーニングすることです。
さらに,高レベルなセマンティックな特徴を活用し,ロバストな処理がポストプロセッシングの広範かつ破壊的な形態で行えるようにした。
公開されているベンチマークの徹底的な実験分析を行う。
最先端技術と比較すると,本手法は一般化が向上し,ソーシャルネットワークに拡散する低品質ビデオに対してより堅牢である。
特に,高圧縮ビデオにおける顔再現の精度は15%以上向上した。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - Mover: Mask and Recovery based Facial Part Consistency Aware Method for
Deepfake Video Detection [33.29744034340998]
Moverは新しいDeepfake検出モデルで、不特定の顔の部分の不整合を悪用する。
本稿では,事前学習されたエンコーダとマスク付きオートエンコーダを利用するデュアルネットワークを用いた新しいモデルを提案する。
我々の標準ベンチマーク実験は、Moverが極めて効果的であることを示している。
論文 参考訳(メタデータ) (2023-03-03T06:57:22Z) - Audio-Visual Person-of-Interest DeepFake Detection [77.04789677645682]
本研究の目的は、現実世界で遭遇する様々な操作方法やシナリオに対処できるディープフェイク検出器を提案することである。
我々は、対照的な学習パラダイムを活用して、各アイデンティティに対して最も識別しやすい、移動面と音声セグメントの埋め込みを学習する。
本手法は,シングルモダリティ(オーディオのみ,ビデオのみ)とマルチモダリティ(オーディオビデオ)の両方を検出でき,低品質・低画質ビデオに対して堅牢である。
論文 参考訳(メタデータ) (2022-04-06T20:51:40Z) - Self-supervised Transformer for Deepfake Detection [112.81127845409002]
現実世界のシナリオにおけるディープフェイク技術は、顔偽造検知器のより強力な一般化能力を必要とする。
転送学習に触発されて、他の大規模な顔関連タスクで事前訓練されたニューラルネットワークは、ディープフェイク検出に有用な機能を提供する可能性がある。
本稿では,自己教師型変換器を用いた音声視覚コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-02T17:44:40Z) - Leveraging Real Talking Faces via Self-Supervision for Robust Forgery
Detection [112.96004727646115]
本研究では,実話を用いた顔操作映像の検出手法を開発した。
本手法は, クロスマニピュレーションの一般化とロバストネス実験における最先端性能を実現する。
以上の結果から、より堅牢な顔偽造検知器の開発には、自然ビデオと未表示ビデオの活用が有望な方向であることが示唆された。
論文 参考訳(メタデータ) (2022-01-18T17:14:54Z) - Improving DeepFake Detection Using Dynamic Face Augmentation [0.8793721044482612]
ほとんどの公開可能なDeepFake検出データセットには、限られたバリエーションがある。
ディープニューラルネットワークは、DeepFakeコンテンツの操作機能を検出するための学習ではなく、顔の特徴にオーバーフィットする傾向があります。
DeepFake検出を改善するために、CNN(Convolutional Neural Networks)をトレーニングするためのデータ拡張方法であるFace-Cutoutを紹介します。
論文 参考訳(メタデータ) (2021-02-18T20:25:45Z) - Lips Don't Lie: A Generalisable and Robust Approach to Face Forgery
Detection [118.37239586697139]
LipForensicsは、操作の一般化と様々な歪みに耐えられる検出アプローチである。
視覚的音声認識(リリーディング)を行うために、初めて時間ネットワークを事前訓練する。
その後、リアルタイムおよび偽造データの固定された口埋め込みに時間的ネットワークを微調整し、低レベルな操作固有のアーティファクトに過度に適合することなく、口の動きに基づいて偽のビデオを検出する。
論文 参考訳(メタデータ) (2020-12-14T15:53:56Z) - A Convolutional LSTM based Residual Network for Deepfake Video Detection [23.275080108063406]
我々は、深層ビデオを検出するための畳み込みLSTMベースのResidual Network(CLRNet)を開発した。
また,異なるディープフェイク手法を一般化するための伝達学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T05:57:06Z) - Detecting Face2Face Facial Reenactment in Videos [76.9573023955201]
本研究では,再現性に基づく変化を検出する学習に基づくアルゴリズムを提案する。
提案アルゴリズムは,局所的なアーティファクトを学習し,様々な圧縮レベルで堅牢な性能を提供するマルチストリームネットワークを用いている。
その結果, 99.96%, 99.10%, 91.20%の非, 容易, 硬度圧縮係数が得られた。
論文 参考訳(メタデータ) (2020-01-21T11:03:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。