論文の概要: When Handcrafted Features and Deep Features Meet Mismatched Training and
Test Sets for Deepfake Detection
- arxiv url: http://arxiv.org/abs/2209.13289v1
- Date: Tue, 27 Sep 2022 10:15:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 14:57:13.064246
- Title: When Handcrafted Features and Deep Features Meet Mismatched Training and
Test Sets for Deepfake Detection
- Title(参考訳): 手作りの特徴と深い特徴がミスマッチしたトレーニングとテストセットを満たしてディープフェイク検出を行うとき
- Authors: Ying Xu, Sule Yildirim Yayilgan
- Abstract要約: 本稿では,2種類の手作り特徴(SIFTとHoG)と2種類の深度特徴(XceptionとCNN+RNN)を深度検出タスクに利用して比較する。
トレーニングセットとテストセットの間にミスマッチがある場合、これらの機能のパフォーマンスもチェックします。
- 参考スコア(独自算出の注目度): 13.405191042154367
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The accelerated growth in synthetic visual media generation and manipulation
has now reached the point of raising significant concerns and posing enormous
intimidations towards society. There is an imperative need for automatic
detection networks towards false digital content and avoid the spread of
dangerous artificial information to contend with this threat. In this paper, we
utilize and compare two kinds of handcrafted features(SIFT and HoG) and two
kinds of deep features(Xception and CNN+RNN) for the deepfake detection task.
We also check the performance of these features when there are mismatches
between training sets and test sets. Evaluation is performed on the famous
FaceForensics++ dataset, which contains four sub-datasets, Deepfakes,
Face2Face, FaceSwap and NeuralTextures. The best results are from Xception,
where the accuracy could surpass over 99\% when the training and test set are
both from the same sub-dataset. In comparison, the results drop dramatically
when the training set mismatches the test set. This phenomenon reveals the
challenge of creating a universal deepfake detection system.
- Abstract(参考訳): 人工視覚メディアの生成と操作の加速は、現在重大な懸念を提起し、社会に対する大きな脅威となっている。
偽デジタルコンテンツに対する自動検出ネットワークの必要性と、この脅威に対抗するために危険な人工情報の拡散を避けることが必要である。
本稿では,2種類の手作り特徴(SIFTとHoG)と2種類の深度特徴(XceptionとCNN+RNN)を深度検出タスクに利用して比較する。
トレーニングセットとテストセットにミスマッチがある場合、これらの機能のパフォーマンスもチェックします。
このデータセットには4つのサブデータセット、deepfakes、face2face、facewap、neuraltextureが含まれている。
最良の結果はxceptionのもので、トレーニングとテストセットが同じサブデータセットからのものである場合、精度が99\%を超える可能性がある。
比較すると、トレーニングセットがテストセットと一致しなかった場合、結果は劇的に低下します。
この現象は、普遍的なディープフェイク検出システムを構築するという課題を明らかにする。
関連論文リスト
- AntifakePrompt: Prompt-Tuned Vision-Language Models are Fake Image Detectors [24.78672820633581]
深層生成モデルは、偽情報や著作権侵害に対する懸念を高めながら、驚くほど偽のイメージを作成することができる。
実画像と偽画像とを区別するためにディープフェイク検出技術が開発された。
本稿では,視覚言語モデルとアクシデントチューニング技術を用いて,Antifake Promptと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-26T14:23:45Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Robustness and Generalizability of Deepfake Detection: A Study with
Diffusion Models [35.188364409869465]
本稿では,ディープフェイクの作り方と識別方法について検討する。
私たちの研究の基盤は、DeepFakeFaceという名の有名人の顔の豊富なコレクションです。
このデータはディープフェイクを見つけるために設計されたアルゴリズムを訓練し、テストするための堅牢な基盤となる。
論文 参考訳(メタデータ) (2023-09-05T13:22:41Z) - Metamorphic Testing-based Adversarial Attack to Fool Deepfake Detectors [2.0649235321315285]
ディープフェイク検出技術はディープフェイクメディアを見つけるのに役立つ。
現在のディープフェイク検出モデルは、卓越した精度(>90%)を達成することができる
本研究は、メイクアップを、ディープフェイク検出器を騙す可能性のある敵攻撃として特定する。
論文 参考訳(メタデータ) (2022-04-19T02:24:30Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Two-stage Deep Stacked Autoencoder with Shallow Learning for Network
Intrusion Detection System [0.0]
リアルタイムネットワークトラフィックにおける不正な攻撃のようなスパースイベントは、大企業の収益損失を大幅に増加させた。
侵入を検知する標準的な方法は有望ではなく、新しいマルウェアを特定できない。
提案手法は,2段階のディープスタックオートエンコーダによる有望な結果を提供することにより,これらの課題を克服する。
論文 参考訳(メタデータ) (2021-12-03T07:59:02Z) - An Experimental Evaluation on Deepfake Detection using Deep Face
Recognition [0.0]
ディープラーニングは、ディープフェイク(deepfakes)として知られる非常に現実的なフェイクコンテンツを生み出した。
現在のディープフェイク検出法のほとんどは、2クラス畳み込みニューラルネットワーク(CNN)を用いた偽のイメージやビデオとを区別する二項分類問題と見なされている。
本稿では,異なる損失関数とディープフェイク生成技術を用いて,ディープフェイク識別におけるディープフェイク認識の有効性を徹底的に評価する。
論文 参考訳(メタデータ) (2021-10-04T18:02:56Z) - M2TR: Multi-modal Multi-scale Transformers for Deepfake Detection [74.19291916812921]
Deepfake技術によって生成された鍛造画像は、デジタル情報の信頼性に深刻な脅威をもたらします。
本稿では,Deepfake検出のための微妙な操作アーチファクトを異なるスケールで捉えることを目的とする。
最先端の顔スワッピングと顔の再現方法によって生成された4000のDeepFakeビデオで構成される高品質のDeepFakeデータセットSR-DFを紹介します。
論文 参考訳(メタデータ) (2021-04-20T05:43:44Z) - Multi-attentional Deepfake Detection [79.80308897734491]
ディープフェイクによる顔の偽造はインターネットに広まり、深刻な社会的懸念を引き起こしている。
新たなマルチアテンテーショナルディープフェイク検出ネットワークを提案する。
具体的には,1)ネットワークを異なる局所的部分へ配置するための複数の空間的注意ヘッド,2)浅い特徴の微妙なアーティファクトをズームするテクスチャ的特徴拡張ブロック,3)低レベルなテクスチャ特徴と高レベルなセマンティクス特徴をアグリゲートする,の3つの構成要素からなる。
論文 参考訳(メタデータ) (2021-03-03T13:56:14Z) - Adversarially robust deepfake media detection using fused convolutional
neural network predictions [79.00202519223662]
現在のディープフェイク検出システムは、目に見えないデータと戦っている。
ビデオから抽出した偽画像と実画像の分類には,CNN(Deep Convolutional Neural Network)モデルが3種類採用されている。
提案手法は96.5%の精度で最先端のモデルより優れている。
論文 参考訳(メタデータ) (2021-02-11T11:28:00Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。