論文の概要: Improving Video Deepfake Detection: A DCT-Based Approach with
Patch-Level Analysis
- arxiv url: http://arxiv.org/abs/2310.11204v2
- Date: Tue, 9 Jan 2024 08:57:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-10 19:43:42.916685
- Title: Improving Video Deepfake Detection: A DCT-Based Approach with
Patch-Level Analysis
- Title(参考訳): ビデオディープフェイク検出の改善: パッチレベル解析を用いたDCTに基づくアプローチ
- Authors: Luca Guarnera (1), Salvatore Manganello (1), Sebastiano Battiato (1)
((1) University of Catania)
- Abstract要約: Iフレームは、文献に記述されたアプローチよりも高速な計算と分析を提供するために抽出された。
個々のビデオフレーム内の識別領域を特定するために、フレーム全体、背景、顔、目、鼻、口、顔フレームを別々に分析した。
実験の結果,眼と口の領域は最も差別的であり,解析により映像の性質を判断できることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A new algorithm for the detection of deepfakes in digital videos is
presented. The I-frames were extracted in order to provide faster computation
and analysis than approaches described in the literature. To identify the
discriminating regions within individual video frames, the entire frame,
background, face, eyes, nose, mouth, and face frame were analyzed separately.
From the Discrete Cosine Transform (DCT), the Beta components were extracted
from the AC coefficients and used as input to standard classifiers.
Experimental results show that the eye and mouth regions are those most
discriminative and able to determine the nature of the video under analysis.
- Abstract(参考訳): デジタルビデオにおけるディープフェイク検出のための新しいアルゴリズムを提案する。
i-frameは文献に記述されているアプローチよりも高速な計算と解析を提供するために抽出された。
個々のビデオフレーム内の識別領域を特定するために、フレーム全体、背景、顔、目、鼻、口、顔フレームを別々に分析した。
離散コサイン変換(DCT)から、ベータ成分を交流係数から抽出し、標準分類器への入力として使用した。
実験の結果,眼と口の領域は最も差別的であり,解析により映像の性質を判断できることがわかった。
関連論文リスト
- Zero-Shot Video Semantic Segmentation based on Pre-Trained Diffusion Models [96.97910688908956]
本稿では,事前学習した拡散モデルに基づくビデオセマンティック(VSS)の最初のゼロショット手法を提案する。
予め訓練された画像とビデオ拡散モデルに基づくVSSに適したフレームワークを提案する。
実験により,提案手法は既存のゼロショット画像セマンティックセグメンテーション手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-05-27T08:39:38Z) - Glitch in the Matrix: A Large Scale Benchmark for Content Driven
Audio-Visual Forgery Detection and Localization [20.46053083071752]
新しいデータセットであるLocalized Visual DeepFake (LAV-DF) の提案とベンチマークを行う。
LAV-DFは、戦略的コンテンツ駆動型オーディオ、ビジュアルおよびオーディオ視覚操作で構成されている。
提案するベースライン手法であるBundary Aware Temporal Forgery Detection (BA-TFD)は3次元畳み込みニューラルネットワークに基づくアーキテクチャである。
論文 参考訳(メタデータ) (2023-05-03T08:48:45Z) - Adaptive occlusion sensitivity analysis for visually explaining video
recognition networks [12.75077781554099]
咬合感度分析は、単一画像分類の分析に一般的に用いられる。
本稿では,映像認識ネットワークの意思決定過程を視覚的に説明するための手法を提案する。
論文 参考訳(メタデータ) (2022-07-26T12:42:51Z) - Spatial-Temporal Frequency Forgery Clue for Video Forgery Detection in
VIS and NIR Scenario [87.72258480670627]
既存の周波数領域に基づく顔偽造検出手法では、GAN鍛造画像は、実際の画像と比較して、周波数スペクトルに明らかな格子状の視覚的アーチファクトを持つ。
本稿では,コサイン変換に基づくフォージェリークリュー拡張ネットワーク(FCAN-DCT)を提案し,より包括的な時空間特徴表現を実現する。
論文 参考訳(メタデータ) (2022-07-05T09:27:53Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - HighlightMe: Detecting Highlights from Human-Centric Videos [62.265410865423]
我々は,人間中心のビデオからハイライト可能な抜粋を検出するために,ドメインとユーザに依存しないアプローチを提案する。
本研究では,時空間グラフ畳み込みを用いたオートエンコーダネットワークを用いて,人間の活動やインタラクションを検出する。
我々は,最先端の手法に比べて,人手によるハイライトのマッチングの平均精度が4~12%向上したことを観察した。
論文 参考訳(メタデータ) (2021-10-05T01:18:15Z) - Shot boundary detection method based on a new extensive dataset and
mixed features [68.8204255655161]
ビデオにおけるショット境界検出は、ビデオデータ処理の重要な段階の1つである。
カラーヒストグラムや物体境界などの映像特徴に基づくショット境界検出法が提案されている。
論文 参考訳(メタデータ) (2021-09-02T16:19:24Z) - Sharp Multiple Instance Learning for DeepFake Video Detection [54.12548421282696]
我々はDeepFakeビデオに、ビデオレベルのラベルのみを提供するが、フェイクビデオのすべての顔が操作されるわけではない部分的な顔攻撃という新しい問題を導入する。
インスタンス埋め込みからバッグ予測への直接マッピングを構築する鋭いMIL(S-MIL)を提案する。
FFPMSと広く使われているDFDCデータセットの実験により、S-MILは部分的に攻撃されたDeepFakeビデオ検出において他の手法よりも優れていることが確認された。
論文 参考訳(メタデータ) (2020-08-11T08:52:17Z) - Dynamic texture analysis for detecting fake faces in video sequences [6.1356022122903235]
本研究では,映像信号のテクスチャ・時間的ダイナミクスの解析について検討する。
目標は、実際の偽のシーケンスを識別し、識別することである。
時間セグメントの連成解析に基づいて複数の二分決定を構築することを提案する。
論文 参考訳(メタデータ) (2020-07-30T07:21:24Z) - Detecting Forged Facial Videos using convolutional neural network [0.0]
我々は,より小さな(少ないパラメータで学習する)畳み込みニューラルネットワーク(CNN)を用いて,偽ビデオ検出のためのデータ駆動型アプローチを提案する。
提案手法の有効性を検証するため,FaceForensicsの公開データセットを用いて,フレームベースとビデオベースの両方の結果を詳細に検討した。
論文 参考訳(メタデータ) (2020-05-17T19:04:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。