論文の概要: Unmasking Deepfake Faces from Videos Using An Explainable Cost-Sensitive
Deep Learning Approach
- arxiv url: http://arxiv.org/abs/2312.10740v1
- Date: Sun, 17 Dec 2023 14:57:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 14:45:56.788046
- Title: Unmasking Deepfake Faces from Videos Using An Explainable Cost-Sensitive
Deep Learning Approach
- Title(参考訳): 説明可能なコストセンシティブなディープラーニングアプローチによるビデオからのdeepfake顔のアンマスキング
- Authors: Faysal Mahmud, Yusha Abdullah, Minhajul Islam, Tahsin Aziz
- Abstract要約: ディープフェイク技術は広く使われており、デジタルメディアの信頼性に関する深刻な懸念につながっている。
本研究は,映像中のディープフェイク顔を効果的に検出するために,リソース効率が高く透明なコスト感受性深層学習法を用いている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deepfake technology is widely used, which has led to serious worries about
the authenticity of digital media, making the need for trustworthy deepfake
face recognition techniques more urgent than ever. This study employs a
resource-effective and transparent cost-sensitive deep learning method to
effectively detect deepfake faces in videos. To create a reliable deepfake
detection system, four pre-trained Convolutional Neural Network (CNN) models:
XceptionNet, InceptionResNetV2, EfficientNetV2S, and EfficientNetV2M were used.
FaceForensics++ and CelebDf-V2 as benchmark datasets were used to assess the
performance of our method. To efficiently process video data, key frame
extraction was used as a feature extraction technique. Our main contribution is
to show the models adaptability and effectiveness in correctly identifying
deepfake faces in videos. Furthermore, a cost-sensitive neural network method
was applied to solve the dataset imbalance issue that arises frequently in
deepfake detection. The XceptionNet model on the CelebDf-V2 dataset gave the
proposed methodology a 98% accuracy, which was the highest possible whereas,
the InceptionResNetV2 model, achieves an accuracy of 94% on the FaceForensics++
dataset. Source Code:
https://github.com/Faysal-MD/Unmasking-Deepfake-Faces-from-Videos-An-Explainable-Cost-Sensitive-Deep -Learning-Approach-IEEE2023
- Abstract(参考訳): ディープフェイク技術は広く使われており、デジタルメディアの真正性に対する深刻な懸念を招き、信頼できるディープフェイクの顔認識技術の必要性がこれまで以上に緊急になった。
本研究は,ビデオ中のディープフェイクを効果的に検出するために,リソース効率と透明なコストセンシティブな深層学習手法を用いる。
信頼性の高いディープフェイク検出システムを構築するために、xceptionnet, inceptionresnetv2, efficientnetv2s, efficientnetv2mの4つの事前学習畳み込みニューラルネットワーク(cnn)モデルを用いた。
ベンチマークデータセットとしてFaceForensics++とCelebDf-V2を用いた。
映像データを効率的に処理するために,キーフレーム抽出を特徴抽出手法として用いた。
私たちの主な貢献は、ビデオ内のディープフェイク顔の正確な識別におけるモデルの適応性と有効性を示すことです。
さらに,ディープフェイク検出時に頻繁に発生するデータセットの不均衡問題を解決するために,コストに敏感なニューラルネットワーク法を適用した。
CelebDf-V2データセットのXceptionNetモデルは提案手法の98%の精度を与え、InceptionResNetV2モデルはFaceForensics++データセットの94%の精度を達成した。
出典:https://github.com/Faysal-MD/Unmasking-Deepfake-Faces-from-Videos-An-Explainable-Cost-Sensitive-Dee p-Learning-Approach-IEEE2023
関連論文リスト
- Faster Than Lies: Real-time Deepfake Detection using Binary Neural Networks [0.0]
ディープフェイク検出は、オンラインコンテンツへの信頼を損なうディープフェイクメディアの拡散と対比することを目的としている。
本稿では,BNN(Binary Neural Networks)を用いた画像に対する新しいディープフェイク検出手法を提案する。
論文 参考訳(メタデータ) (2024-06-07T13:37:36Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - An Experimental Evaluation on Deepfake Detection using Deep Face
Recognition [0.0]
ディープラーニングは、ディープフェイク(deepfakes)として知られる非常に現実的なフェイクコンテンツを生み出した。
現在のディープフェイク検出法のほとんどは、2クラス畳み込みニューラルネットワーク(CNN)を用いた偽のイメージやビデオとを区別する二項分類問題と見なされている。
本稿では,異なる損失関数とディープフェイク生成技術を用いて,ディープフェイク識別におけるディープフェイク認識の有効性を徹底的に評価する。
論文 参考訳(メタデータ) (2021-10-04T18:02:56Z) - FReTAL: Generalizing Deepfake Detection using Knowledge Distillation and
Representation Learning [17.97648576135166]
本稿では,FreTAL(Feature Representation Transfer Adaptation Learning)法を提案する。
我々の学生モデルは、事前学習した教師モデルから知識を抽出することで、新しいタイプのディープフェイクに迅速に適応することができる。
FRETALは、ドメイン適応タスクのすべてのベースラインを86.97%の精度で低品質のディープフェイクで上回っている。
論文 参考訳(メタデータ) (2021-05-28T06:54:10Z) - M2TR: Multi-modal Multi-scale Transformers for Deepfake Detection [74.19291916812921]
Deepfake技術によって生成された鍛造画像は、デジタル情報の信頼性に深刻な脅威をもたらします。
本稿では,Deepfake検出のための微妙な操作アーチファクトを異なるスケールで捉えることを目的とする。
最先端の顔スワッピングと顔の再現方法によって生成された4000のDeepFakeビデオで構成される高品質のDeepFakeデータセットSR-DFを紹介します。
論文 参考訳(メタデータ) (2021-04-20T05:43:44Z) - Improving DeepFake Detection Using Dynamic Face Augmentation [0.8793721044482612]
ほとんどの公開可能なDeepFake検出データセットには、限られたバリエーションがある。
ディープニューラルネットワークは、DeepFakeコンテンツの操作機能を検出するための学習ではなく、顔の特徴にオーバーフィットする傾向があります。
DeepFake検出を改善するために、CNN(Convolutional Neural Networks)をトレーニングするためのデータ拡張方法であるFace-Cutoutを紹介します。
論文 参考訳(メタデータ) (2021-02-18T20:25:45Z) - Adversarially robust deepfake media detection using fused convolutional
neural network predictions [79.00202519223662]
現在のディープフェイク検出システムは、目に見えないデータと戦っている。
ビデオから抽出した偽画像と実画像の分類には,CNN(Deep Convolutional Neural Network)モデルが3種類採用されている。
提案手法は96.5%の精度で最先端のモデルより優れている。
論文 参考訳(メタデータ) (2021-02-11T11:28:00Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [82.42495493102805]
我々は,インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介した。
既存のWildDeepfakeデータセットと我々のWildDeepfakeデータセットのベースライン検出ネットワークを体系的に評価し、WildDeepfakeが実際により困難なデータセットであることを示す。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z) - Deepfakes Detection with Automatic Face Weighting [21.723416806728668]
コンボリューションニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)に基づいて,映像中の顔から視覚的特徴と時間的特徴を抽出し,操作を正確に検出する手法を提案する。
この手法はDeepfake Detection Challengeデータセットを用いて評価され、他の手法と比較して競合的な結果が得られる。
論文 参考訳(メタデータ) (2020-04-25T00:47:42Z) - Emotions Don't Lie: An Audio-Visual Deepfake Detection Method Using
Affective Cues [75.1731999380562]
本稿では,実・偽のディープフェイクマルチメディアコンテンツを検出する学習手法を提案する。
我々は,同じビデオから2つのオーディオと視覚の類似性を抽出し,解析する。
我々は,いくつかのSOTAディープフェイク検出手法との比較を行い,DFDCでは84.4%,DF-TIMITデータセットでは96.6%の動画AUCを報告した。
論文 参考訳(メタデータ) (2020-03-14T22:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。