論文の概要: Dynamic texture analysis for detecting fake faces in video sequences
- arxiv url: http://arxiv.org/abs/2007.15271v1
- Date: Thu, 30 Jul 2020 07:21:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 14:41:57.609416
- Title: Dynamic texture analysis for detecting fake faces in video sequences
- Title(参考訳): 映像中の偽顔検出のための動的テクスチャ解析
- Authors: Mattia Bonomi and Cecilia Pasquini and Giulia Boato
- Abstract要約: 本研究では,映像信号のテクスチャ・時間的ダイナミクスの解析について検討する。
目標は、実際の偽のシーケンスを識別し、識別することである。
時間セグメントの連成解析に基づいて複数の二分決定を構築することを提案する。
- 参考スコア(独自算出の注目度): 6.1356022122903235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The creation of manipulated multimedia content involving human characters has
reached in the last years unprecedented realism, calling for automated
techniques to expose synthetically generated faces in images and videos. This
work explores the analysis of spatio-temporal texture dynamics of the video
signal, with the goal of characterizing and distinguishing real and fake
sequences. We propose to build a binary decision on the joint analysis of
multiple temporal segments and, in contrast to previous approaches, to exploit
the textural dynamics of both the spatial and temporal dimensions. This is
achieved through the use of Local Derivative Patterns on Three Orthogonal
Planes (LDP-TOP), a compact feature representation known to be an important
asset for the detection of face spoofing attacks. Experimental analyses on
state-of-the-art datasets of manipulated videos show the discriminative power
of such descriptors in separating real and fake sequences, and also identifying
the creation method used. Linear Support Vector Machines (SVMs) are used which,
despite the lower complexity, yield comparable performance to previously
proposed deep models for fake content detection.
- Abstract(参考訳): 人間のキャラクターを含む操作されたマルチメディアコンテンツの作成は、過去数年で前例のないリアリズムに達し、画像やビデオに合成生成された顔を公開する自動化技術を求めている。
本研究は,映像信号の時空間的テクスチャダイナミクスの解析を行い,実数列と偽数列を特徴付けることを目的とする。
本稿では,複数時間セグメントの連成解析に基づく二項決定法を提案し,従来の手法とは対照的に空間次元と時間次元の両方のテクスチャダイナミクスを利用する。
これは、3次元直交平面上の局所微分パターン(LDP-TOP)を用いることで達成される。
操作されたビデオの最先端のデータセットに関する実験的解析は、実際のシーケンスと偽のシーケンスを分離するディスクリプタの識別能力を示し、また、使用される生成方法を特定する。
線形サポートベクトルマシン(SVM)は、複雑さが低いにもかかわらず、以前に提案された偽コンテンツ検出のためのディープモデルと同等の性能を持つ。
関連論文リスト
- Diffusion Priors for Dynamic View Synthesis from Monocular Videos [59.42406064983643]
ダイナミックノベルビュー合成は、ビデオ内の視覚的コンテンツの時間的進化を捉えることを目的としている。
まず、ビデオフレーム上に予め訓練されたRGB-D拡散モデルをカスタマイズ手法を用いて微調整する。
動的および静的なニューラルレイディアンス場を含む4次元表現に、微調整されたモデルから知識を蒸留する。
論文 参考訳(メタデータ) (2024-01-10T23:26:41Z) - Appearance-based Refinement for Object-Centric Motion Segmentation [95.80420062679104]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では, 正確な流量予測マスクを模範として, 簡単な選択機構を用いる。
パフォーマンスは、DAVIS、YouTubeVOS、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - Spatio-Temporal Relation Learning for Video Anomaly Detection [35.59510027883497]
異常識別は、オブジェクトとシーンの関係に大きく依存する。
本稿では,ビデオ異常検出タスクに対処するための空間時間関係学習フレームワークを提案する。
3つの公開データセットで実験を行い、最先端手法よりも優れた性能を示し、本手法の有効性を実証した。
論文 参考訳(メタデータ) (2022-09-27T02:19:31Z) - Video-driven Neural Physically-based Facial Asset for Production [33.24654834163312]
高品質な物理的資産を持つ動的顔のジオメトリを生成するための,学習に基づく新しいビデオ駆動型アプローチを提案する。
本手法は,従来の映像駆動型顔再構成法やアニメーション法よりも精度が高く,視覚的忠実度が高い。
論文 参考訳(メタデータ) (2022-02-11T13:22:48Z) - HighlightMe: Detecting Highlights from Human-Centric Videos [62.265410865423]
我々は,人間中心のビデオからハイライト可能な抜粋を検出するために,ドメインとユーザに依存しないアプローチを提案する。
本研究では,時空間グラフ畳み込みを用いたオートエンコーダネットワークを用いて,人間の活動やインタラクションを検出する。
我々は,最先端の手法に比べて,人手によるハイライトのマッチングの平均精度が4~12%向上したことを観察した。
論文 参考訳(メタデータ) (2021-10-05T01:18:15Z) - Scene Synthesis via Uncertainty-Driven Attribute Synchronization [52.31834816911887]
本稿では,3次元シーンの多様な特徴パターンを捉えるニューラルシーン合成手法を提案する。
提案手法は,ニューラルネットワークと従来のシーン合成手法の双方の長所を結合する。
論文 参考訳(メタデータ) (2021-08-30T19:45:07Z) - DeepMultiCap: Performance Capture of Multiple Characters Using Sparse
Multiview Cameras [63.186486240525554]
deep multicapは、スパースマルチビューカメラを用いたマルチパーソンパフォーマンスキャプチャのための新しい手法である。
本手法では,事前走査型テンプレートモデルを用いることなく,時間変化した表面の詳細をキャプチャできる。
論文 参考訳(メタデータ) (2021-05-01T14:32:13Z) - Spatial-Temporal Correlation and Topology Learning for Person
Re-Identification in Videos [78.45050529204701]
クロススケール空間時空間相関をモデル化し, 識別的, 堅牢な表現を追求する新しい枠組みを提案する。
CTLはCNNバックボーンとキーポイント推定器を使用して人体から意味的局所的特徴を抽出する。
グローバルな文脈情報と人体の物理的接続の両方を考慮して、多スケールグラフを構築するためのコンテキスト強化トポロジーを探求する。
論文 参考訳(メタデータ) (2021-04-15T14:32:12Z) - Spatio-temporal Features for Generalized Detection of Deepfake Videos [12.453288832098314]
我々は3D CNNによってモデル化された時間的特徴を提案し、新しい種類のディープビデオを検出する能力を拡張した。
提案手法は,一般化能力において既存手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-10-22T16:28:50Z) - Interpretable and Trustworthy Deepfake Detection via Dynamic Prototypes [20.358053429294458]
視覚的説明の一形態として動的プロトタイプを用いて顔画像の偽造を検知する新しい人間中心のアプローチを提案する。
大規模な実験結果から、DPNetは、目に見えないテストデータセットでさえ、競争力のある予測性能を達成することが示された。
論文 参考訳(メタデータ) (2020-06-28T00:25:34Z) - DeepFake Detection by Analyzing Convolutional Traces [0.0]
我々は,人間の顔のディープフェイクの分析に着目し,新しい検出方法を提案する。
提案手法は, 予測最大化(EM)アルゴリズムを用いて, 基礎となる畳み込み生成過程をモデル化するための局所的特徴の集合を抽出する。
その結果、異なるアーキテクチャと対応する生成過程を区別する手法の有効性が示された。
論文 参考訳(メタデータ) (2020-04-22T09:02:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。