論文の概要: Detecting Face2Face Facial Reenactment in Videos
- arxiv url: http://arxiv.org/abs/2001.07444v1
- Date: Tue, 21 Jan 2020 11:03:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-08 00:09:55.497532
- Title: Detecting Face2Face Facial Reenactment in Videos
- Title(参考訳): Face2Faceの顔再現検出技術
- Authors: Prabhat Kumar, Mayank Vatsa and Richa Singh
- Abstract要約: 本研究では,再現性に基づく変化を検出する学習に基づくアルゴリズムを提案する。
提案アルゴリズムは,局所的なアーティファクトを学習し,様々な圧縮レベルで堅牢な性能を提供するマルチストリームネットワークを用いている。
その結果, 99.96%, 99.10%, 91.20%の非, 容易, 硬度圧縮係数が得られた。
- 参考スコア(独自算出の注目度): 76.9573023955201
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual content has become the primary source of information, as evident in
the billions of images and videos, shared and uploaded on the Internet every
single day. This has led to an increase in alterations in images and videos to
make them more informative and eye-catching for the viewers worldwide. Some of
these alterations are simple, like copy-move, and are easily detectable, while
other sophisticated alterations like reenactment based DeepFakes are hard to
detect. Reenactment alterations allow the source to change the target
expressions and create photo-realistic images and videos. While technology can
be potentially used for several applications, the malicious usage of automatic
reenactment has a very large social implication. It is therefore important to
develop detection techniques to distinguish real images and videos with the
altered ones. This research proposes a learning-based algorithm for detecting
reenactment based alterations. The proposed algorithm uses a multi-stream
network that learns regional artifacts and provides a robust performance at
various compression levels. We also propose a loss function for the balanced
learning of the streams for the proposed network. The performance is evaluated
on the publicly available FaceForensics dataset. The results show
state-of-the-art classification accuracy of 99.96%, 99.10%, and 91.20% for no,
easy, and hard compression factors, respectively.
- Abstract(参考訳): 何十億もの画像やビデオが毎日インターネット上で共有され、アップロードされているように、ビジュアルコンテンツが主要な情報ソースになっている。
これにより、世界中の視聴者にとってより情報的かつ目を引くために、画像やビデオの変更が増加している。
これらの変更のいくつかはコピーモーブのようにシンプルで容易に検出できるが、再現ベースのディープフェイクのような洗練された変更は検出が難しい。
reenactmentの変更により、ソースはターゲットの式を変更し、フォトリアリスティックな画像やビデオを作成することができる。
テクノロジーはいくつかのアプリケーションに応用できる可能性があるが、自動再現の悪意ある使用は、非常に大きな社会的意味を持つ。
そのため、実際の画像と映像を区別する検出技術を開発することが重要である。
本研究では,再現性に基づく変化を検出する学習アルゴリズムを提案する。
提案アルゴリズムはマルチストリームネットワークを用いて局所的なアーティファクトを学習し,様々な圧縮レベルで堅牢な性能を提供する。
また,提案ネットワークにおけるストリームの均衡学習のための損失関数を提案する。
パフォーマンスは公開のfaceforensicsデータセットで評価される。
その結果,ノー,イージー,ハードの圧縮係数はそれぞれ99.96%,99.10%,91.20%であった。
関連論文リスト
- Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - Deepfake Detection of Occluded Images Using a Patch-based Approach [1.6114012813668928]
本研究では, 顔全体と顔のパッチを用いて, 障害物の有無で実像と偽像を識別する深層学習手法を提案する。
偽画像を作成するには、FFHQイメージでStyleGANとStyleGAN2を、CelebAイメージでStarGANとPGGANをトレーニングする。
提案手法は他の手法よりも早期に高い結果に到達し、異なる構築されたデータセットにおいてSoTAの結果を0.4%-7.9%向上させる。
論文 参考訳(メタデータ) (2023-04-10T12:12:14Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - Video Manipulations Beyond Faces: A Dataset with Human-Machine Analysis [60.13902294276283]
我々は826の動画(413のリアルと413の操作)からなるデータセットであるVideoShamを提示する。
既存のディープフェイクデータセットの多くは、2種類の顔操作にのみ焦点をあてている。
我々の分析によると、最先端の操作検出アルゴリズムはいくつかの特定の攻撃に対してのみ有効であり、VideoShamではうまくスケールしない。
論文 参考訳(メタデータ) (2022-07-26T17:39:04Z) - Practical Deepfake Detection: Vulnerabilities in Global Contexts [1.6114012813668934]
ディープラーニングは、ディープフェイクとして知られるビデオへのデジタル変更を可能にした。
この技術は、偽情報や認証に関する重要な社会的関心を喚起する。
我々は、FaceForensics++データセットの破損した変種に対して、データ消去手法をシミュレートし、最先端のディープフェイク検出アルゴリズムの性能について検討する。
論文 参考訳(メタデータ) (2022-06-20T15:24:55Z) - Identity-Driven DeepFake Detection [91.0504621868628]
アイデンティティ駆動のDeepFake Detectionは、被疑者画像/ビデオとターゲットのアイデンティティ情報を入力する。
被疑者画像・映像の同一性は対象人物と同一かという判断を出力する。
本稿では,新たな研究のベースラインとして,簡単な識別ベース検出アルゴリズムであるouterfaceを提案する。
論文 参考訳(メタデータ) (2020-12-07T18:59:08Z) - ID-Reveal: Identity-aware DeepFake Video Detection [24.79483180234883]
ID-Reveal(ID-Reveal)は、時間的顔の特徴を学習する新しいアプローチだ。
偽物のトレーニングデータは必要ありませんが、実際のビデオでトレーニングするだけです。
高圧縮映像における顔再現の精度は平均15%以上向上した。
論文 参考訳(メタデータ) (2020-12-04T10:43:16Z) - What makes fake images detectable? Understanding properties that
generalize [55.4211069143719]
深層ネットワークは、博士画像の微妙なアーティファクトを拾い上げることができる。
我々は、偽画像のどの特性が検出可能かを理解することを模索する。
検出可能な特性を誇張する手法を示す。
論文 参考訳(メタデータ) (2020-08-24T17:50:28Z) - Learning Transformation-Aware Embeddings for Image Forensics [15.484408315588569]
Image Provenance Analysisは、コンテンツを共有するさまざまな操作されたイメージバージョン間の関係を見つけることを目的としている。
証明分析のための主要なサブプロブレムの1つは、完全なコンテンツを共有したり、ほぼ重複している画像の編集順序である。
本稿では,1つの画像から生成した画像に対して,変換を通じて妥当な順序付けを行うための,新しい深層学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-01-13T22:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。