論文の概要: Improving Video Deepfake Detection: A DCT-Based Approach with
Patch-Level Analysis
- arxiv url: http://arxiv.org/abs/2310.11204v1
- Date: Tue, 17 Oct 2023 12:30:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 16:12:40.874601
- Title: Improving Video Deepfake Detection: A DCT-Based Approach with
Patch-Level Analysis
- Title(参考訳): ビデオディープフェイク検出の改善: パッチレベル解析を用いたDCTに基づくアプローチ
- Authors: Luca Guarnera (1), Salvatore Manganello (1), Sebastiano Battiato (1)
((1) University of Catania)
- Abstract要約: ディープフェイク(deepfake)とは、生成モデルを用いて合成またはゼロから生成されたマルチメディアコンテンツの総称である。
本研究では,デジタルビデオにおけるディープフェイク検出のための新しいアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The term deepfake refers to all those multimedia contents that were
synthetically altered or created from scratch through the use of generative
models. This phenomenon has become widespread due to the use of increasingly
accurate and efficient architectures capable of rendering manipulated content
indistinguishable from real content. In order to fight the illicit use of this
powerful technology, it has become necessary to develop algorithms able to
distinguish synthetic content from real ones. In this study, a new algorithm
for the detection of deepfakes in digital videos is presented, focusing on the
main goal of creating a fast and explainable method from a forensic
perspective. To achieve this goal, the I-frames were extracted in order to
provide faster computation and analysis than approaches described in
literature. In addition, to identify the most discriminating regions within
individual video frames, the entire frame, background, face, eyes, nose, mouth,
and face frame were analyzed separately. From the Discrete Cosine Transform
(DCT), the Beta components were extracted from the AC coefficients and used as
input to standard classifiers (e.g., k-NN, SVM, and others) in order to
identify those frequencies most discriminative for solving the task in
question. Experimental results obtained on the Faceforensics++ and Celeb-DF
(v2) datasets show that the eye and mouth regions are those most discriminative
and able to determine the nature of the video with greater reliability than the
analysis of the whole frame. The method proposed in this study is analytical,
fast and does not require much computational power.
- Abstract(参考訳): ディープフェイク(deepfake)とは、生成モデルを用いて合成またはゼロから生成されたマルチメディアコンテンツの総称である。
この現象は、実際のコンテンツと区別できない操作されたコンテンツをレンダリングできる、正確で効率的なアーキテクチャの使用により、広まりつつある。
この強力な技術を不正に利用するためには、合成コンテンツを現実のものと区別できるアルゴリズムを開発する必要がある。
本研究では,デジタルビデオにおけるディープフェイク検出のための新しいアルゴリズムを提案し,法医学的な視点から高速かつ説明可能な手法を作成することの主な目標について述べる。
この目的を達成するため、Iフレームは文献に記述されたアプローチよりも高速な計算と分析を提供するために抽出された。
さらに、個々のビデオフレーム内で最も識別された領域を特定するために、フレーム全体、背景、顔、目、鼻、口、顔フレームを別々に分析した。
離散コサイン変換(DCT)から、ベータ成分をAC係数から抽出し、標準分類器(k-NN、SVMなど)への入力として使用して、問題のタスクを解く上で最も識別しやすい周波数を特定した。
Faceforensics++とCeleb-DF(v2)データセットで得られた実験結果は、目と口の領域が最も識別され、フレーム全体の分析よりも信頼性の高いビデオの性質を判断できることを示している。
本研究で提案する手法は解析的で高速であり,計算能力はあまり必要ではない。
関連論文リスト
- Zero-Shot Video Semantic Segmentation based on Pre-Trained Diffusion Models [96.97910688908956]
本稿では,事前学習した拡散モデルに基づくビデオセマンティック(VSS)の最初のゼロショット手法を提案する。
予め訓練された画像とビデオ拡散モデルに基づくVSSに適したフレームワークを提案する。
実験により,提案手法は既存のゼロショット画像セマンティックセグメンテーション手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-05-27T08:39:38Z) - Glitch in the Matrix: A Large Scale Benchmark for Content Driven
Audio-Visual Forgery Detection and Localization [20.46053083071752]
新しいデータセットであるLocalized Visual DeepFake (LAV-DF) の提案とベンチマークを行う。
LAV-DFは、戦略的コンテンツ駆動型オーディオ、ビジュアルおよびオーディオ視覚操作で構成されている。
提案するベースライン手法であるBundary Aware Temporal Forgery Detection (BA-TFD)は3次元畳み込みニューラルネットワークに基づくアーキテクチャである。
論文 参考訳(メタデータ) (2023-05-03T08:48:45Z) - Adaptive occlusion sensitivity analysis for visually explaining video
recognition networks [12.75077781554099]
咬合感度分析は、単一画像分類の分析に一般的に用いられる。
本稿では,映像認識ネットワークの意思決定過程を視覚的に説明するための手法を提案する。
論文 参考訳(メタデータ) (2022-07-26T12:42:51Z) - Spatial-Temporal Frequency Forgery Clue for Video Forgery Detection in
VIS and NIR Scenario [87.72258480670627]
既存の周波数領域に基づく顔偽造検出手法では、GAN鍛造画像は、実際の画像と比較して、周波数スペクトルに明らかな格子状の視覚的アーチファクトを持つ。
本稿では,コサイン変換に基づくフォージェリークリュー拡張ネットワーク(FCAN-DCT)を提案し,より包括的な時空間特徴表現を実現する。
論文 参考訳(メタデータ) (2022-07-05T09:27:53Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - HighlightMe: Detecting Highlights from Human-Centric Videos [52.84233165201391]
我々は,人間中心のビデオからハイライト可能な抜粋を検出するために,ドメインとユーザに依存しないアプローチを提案する。
本研究では,時空間グラフ畳み込みを用いたオートエンコーダネットワークを用いて,人間の活動やインタラクションを検出する。
我々は,最先端の手法に比べて,人手によるハイライトのマッチングの平均精度が4~12%向上したことを観察した。
論文 参考訳(メタデータ) (2021-10-05T01:18:15Z) - Shot boundary detection method based on a new extensive dataset and
mixed features [68.8204255655161]
ビデオにおけるショット境界検出は、ビデオデータ処理の重要な段階の1つである。
カラーヒストグラムや物体境界などの映像特徴に基づくショット境界検出法が提案されている。
論文 参考訳(メタデータ) (2021-09-02T16:19:24Z) - Sharp Multiple Instance Learning for DeepFake Video Detection [54.12548421282696]
我々はDeepFakeビデオに、ビデオレベルのラベルのみを提供するが、フェイクビデオのすべての顔が操作されるわけではない部分的な顔攻撃という新しい問題を導入する。
インスタンス埋め込みからバッグ予測への直接マッピングを構築する鋭いMIL(S-MIL)を提案する。
FFPMSと広く使われているDFDCデータセットの実験により、S-MILは部分的に攻撃されたDeepFakeビデオ検出において他の手法よりも優れていることが確認された。
論文 参考訳(メタデータ) (2020-08-11T08:52:17Z) - Dynamic texture analysis for detecting fake faces in video sequences [6.1356022122903235]
本研究では,映像信号のテクスチャ・時間的ダイナミクスの解析について検討する。
目標は、実際の偽のシーケンスを識別し、識別することである。
時間セグメントの連成解析に基づいて複数の二分決定を構築することを提案する。
論文 参考訳(メタデータ) (2020-07-30T07:21:24Z) - Detecting Forged Facial Videos using convolutional neural network [0.0]
我々は,より小さな(少ないパラメータで学習する)畳み込みニューラルネットワーク(CNN)を用いて,偽ビデオ検出のためのデータ駆動型アプローチを提案する。
提案手法の有効性を検証するため,FaceForensicsの公開データセットを用いて,フレームベースとビデオベースの両方の結果を詳細に検討した。
論文 参考訳(メタデータ) (2020-05-17T19:04:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。