論文の概要: Improving the Efficiency and Robustness of Deepfakes Detection through
Precise Geometric Features
- arxiv url: http://arxiv.org/abs/2104.04480v1
- Date: Fri, 9 Apr 2021 16:57:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 15:27:37.057869
- Title: Improving the Efficiency and Robustness of Deepfakes Detection through
Precise Geometric Features
- Title(参考訳): 精密幾何特徴を用いたディープフェイク検出の効率とロバスト性の向上
- Authors: Zekun Sun and Yujie Han and Zeyu Hua and Na Ruan and Weijia Jia
- Abstract要約: Deepfakesは、ターゲットの顔を元の顔にビデオで移植する悪質なテクニックの1つだ。
これまでのDeepfakesビデオ検出の取り組みは主に外観機能に焦点を当てており、高度な操作によってバイパスされるリスクがある。
高精度な幾何学的特徴を時間的モデル化してDeepfakesビデオを検出するための効率的かつ堅牢なフレームワークLRNetを提案します。
- 参考スコア(独自算出の注目度): 13.033517345182728
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deepfakes is a branch of malicious techniques that transplant a target face
to the original one in videos, resulting in serious problems such as
infringement of copyright, confusion of information, or even public panic.
Previous efforts for Deepfakes videos detection mainly focused on appearance
features, which have a risk of being bypassed by sophisticated manipulation,
also resulting in high model complexity and sensitiveness to noise. Besides,
how to mine the temporal features of manipulated videos and exploit them is
still an open question. We propose an efficient and robust framework named
LRNet for detecting Deepfakes videos through temporal modeling on precise
geometric features. A novel calibration module is devised to enhance the
precision of geometric features, making it more discriminative, and a
two-stream Recurrent Neural Network (RNN) is constructed for sufficient
exploitation of temporal features. Compared to previous methods, our proposed
method is lighter-weighted and easier to train. Moreover, our method has shown
robustness in detecting highly compressed or noise corrupted videos. Our model
achieved 0.999 AUC on FaceForensics++ dataset. Meanwhile, it has a graceful
decline in performance (-0.042 AUC) when faced with highly compressed videos.
- Abstract(参考訳): ディープフェイクス(Deepfakes)は、ビデオでターゲットの顔を元の顔に移植する悪意ある技法の1つで、著作権侵害、情報の混乱、さらにはパニックなど深刻な問題を引き起こす。
これまでのdeepfakesビデオ検出の取り組みは主に外観機能に焦点を当てており、高度な操作によってバイパスされるリスクがあり、モデルの複雑さとノイズに対する敏感さも高まっている。
さらに、操作されたビデオの時間的特徴を掘り起こし、それらを悪用する方法はまだ未解決の問題だ。
本稿では,正確な幾何学的特徴の時間的モデリングにより,Deepfakesビデオを検出するために,LRNetという効率的で堅牢なフレームワークを提案する。
幾何学的特徴の精度を高めるために新しいキャリブレーションモジュールを考案し、より識別しやすくし、時間的特徴を十分に活用するために2ストリームリカレントニューラルネットワーク(RNN)を構築した。
従来の手法と比較して,提案手法は軽量で訓練が容易である。
さらに,本手法は,高圧縮・ノイズ劣化ビデオの検出において頑健性を示した。
われわれのモデルはFaceForensics++データセットで0.999 AUCを達成した。
一方、高度に圧縮されたビデオに直面するとパフォーマンスが低下する(-0.042 auc)。
関連論文リスト
- GRACE: Graph-Regularized Attentive Convolutional Entanglement with Laplacian Smoothing for Robust DeepFake Video Detection [7.591187423217017]
本稿では,グラフラプラシアンを用いたグラフ畳み込みネットワークに基づく,堅牢なDeepFakeビデオ検出手法を提案する。
提案手法は,雑音の多い顔シーケンス下でのDeepFakeビデオ検出における最先端性能を実現する。
論文 参考訳(メタデータ) (2024-06-28T14:17:16Z) - Turns Out I'm Not Real: Towards Robust Detection of AI-Generated Videos [16.34393937800271]
高品質なビデオを作成するための生成モデルは、デジタル整合性とプライバシーの脆弱性に関する懸念を提起している。
ディープフェイクスのビデオと戦うための最近の研究は、ガン生成サンプルを正確に識別する検出器を開発した。
本稿では,複数の最先端(SOTA)生成モデルから合成された映像を検出するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-13T21:52:49Z) - Unmasking Deepfake Faces from Videos Using An Explainable Cost-Sensitive
Deep Learning Approach [0.0]
ディープフェイク技術は広く使われており、デジタルメディアの信頼性に関する深刻な懸念につながっている。
本研究は,映像中のディープフェイク顔を効果的に検出するために,リソース効率が高く透明なコスト感受性深層学習法を用いている。
論文 参考訳(メタデータ) (2023-12-17T14:57:10Z) - Global Context Aggregation Network for Lightweight Saliency Detection of
Surface Defects [70.48554424894728]
我々は,エンコーダ・デコーダ構造上の表面欠陥を簡易に検出するためのGCANet(Global Context Aggregation Network)を開発した。
まず、軽量バックボーンの上部層に新しいトランスフォーマーエンコーダを導入し、DSA(Depth-wise Self-Attention)モジュールを通じてグローバルなコンテキスト情報をキャプチャする。
3つの公開欠陥データセットの実験結果から,提案したネットワークは,他の17の最先端手法と比較して,精度と実行効率のトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2023-09-22T06:19:11Z) - NPVForensics: Jointing Non-critical Phonemes and Visemes for Deepfake
Detection [50.33525966541906]
既存のマルチモーダル検出手法は、Deepfakeビデオを公開するために、音声と視覚の不整合をキャプチャする。
NPVForensics と呼ばれる非臨界音素とビセムの相関関係を抽出する新しいディープフェイク検出法を提案する。
我々のモデルは、微調整で下流のDeepfakeデータセットに容易に適応できる。
論文 参考訳(メタデータ) (2023-06-12T06:06:05Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - The Effectiveness of Temporal Dependency in Deepfake Video Detection [0.0]
本稿では,時間的情報によって深層学習モデルの深部学習性能が向上するかどうかを検討する。
その結果,時間依存性は実画像の分類において統計的に顕著な増加をもたらすことがわかった。
論文 参考訳(メタデータ) (2022-05-13T14:39:25Z) - Adversarially robust deepfake media detection using fused convolutional
neural network predictions [79.00202519223662]
現在のディープフェイク検出システムは、目に見えないデータと戦っている。
ビデオから抽出した偽画像と実画像の分類には,CNN(Deep Convolutional Neural Network)モデルが3種類採用されている。
提案手法は96.5%の精度で最先端のモデルより優れている。
論文 参考訳(メタデータ) (2021-02-11T11:28:00Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z) - A Plug-and-play Scheme to Adapt Image Saliency Deep Model for Video Data [54.198279280967185]
本稿では,ビデオデータに対して予め訓練された画像の鮮度深度モデルを弱めに再学習する新しいプラグイン・アンド・プレイ方式を提案する。
本手法は,既訓練画像の深度モデルに適応して高品質な映像の鮮度検出を実現するのに有効である。
論文 参考訳(メタデータ) (2020-08-02T13:23:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。