論文の概要: Training Strategies and Data Augmentations in CNN-based DeepFake Video
Detection
- arxiv url: http://arxiv.org/abs/2011.07792v1
- Date: Mon, 16 Nov 2020 08:50:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 00:07:18.948999
- Title: Training Strategies and Data Augmentations in CNN-based DeepFake Video
Detection
- Title(参考訳): CNNに基づくDeepFakeビデオ検出におけるトレーニング戦略とデータ拡張
- Authors: Luca Bondi, Edoardo Daniele Cannas, Paolo Bestagini, Stefano Tubaro
- Abstract要約: ビデオにおける顔偽造検出のための自動システムの精度は依然として非常に限られており、特定の検知システムの設計と訓練に使用されるデータセットに偏っている。
本稿では、異なるトレーニング戦略とデータ拡張技術が、同じデータセット上でトレーニングやテストを行う場合、あるいは異なるデータセット間で、CNNベースのディープフェイク検出器にどのように影響するかを分析する。
- 参考スコア(独自算出の注目度): 17.696134665850447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The fast and continuous growth in number and quality of deepfake videos calls
for the development of reliable detection systems capable of automatically
warning users on social media and on the Internet about the potential
untruthfulness of such contents. While algorithms, software, and smartphone
apps are getting better every day in generating manipulated videos and swapping
faces, the accuracy of automated systems for face forgery detection in videos
is still quite limited and generally biased toward the dataset used to design
and train a specific detection system. In this paper we analyze how different
training strategies and data augmentation techniques affect CNN-based deepfake
detectors when training and testing on the same dataset or across different
datasets.
- Abstract(参考訳): ディープフェイク動画の数と品質の迅速かつ継続的な成長は、ソーシャルメディアやインターネット上で、そのコンテンツの真偽を自動で警告できる信頼性の高い検出システムの開発を呼びかけている。
アルゴリズム、ソフトウェア、スマートフォンアプリは、操作されたビデオの生成や顔の交換において日々良くなっているが、ビデオにおける顔偽造検出のための自動化システムの精度は、まだかなり限られており、特定の検出システムの設計とトレーニングに使用されるデータセットに偏っている。
本稿では,異なるトレーニング戦略とデータ拡張技術が,同一データセット上でトレーニングやテストを行う場合,CNNベースのディープフェイク検出器に与える影響を分析する。
関連論文リスト
- The Tug-of-War Between Deepfake Generation and Detection [4.62070292702111]
マルチモーダル生成モデルは急速に進化しており、現実的なビデオやオーディオの生成が急増している。
ディープフェイクビデオは、個人を説得力を持って偽造することができるが、悪用の可能性から特に注目を集めている。
本研究では,ディープフェイク映像の生成と検出の両面を考察し,効果的な対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-07-08T17:49:41Z) - Analysis of Real-Time Hostile Activitiy Detection from Spatiotemporal
Features Using Time Distributed Deep CNNs, RNNs and Attention-Based
Mechanisms [0.0]
CCTVカメラシステムによるリアルタイムビデオ監視は、公共の安全を確保するために欠かせないものとなっている。
ディープラーニングビデオ分類技術は、監視システムを自動化して暴力を検知するのに役立ちます。
論文 参考訳(メタデータ) (2023-02-21T22:02:39Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - Practical Deepfake Detection: Vulnerabilities in Global Contexts [1.6114012813668934]
ディープラーニングは、ディープフェイクとして知られるビデオへのデジタル変更を可能にした。
この技術は、偽情報や認証に関する重要な社会的関心を喚起する。
我々は、FaceForensics++データセットの破損した変種に対して、データ消去手法をシミュレートし、最先端のディープフェイク検出アルゴリズムの性能について検討する。
論文 参考訳(メタデータ) (2022-06-20T15:24:55Z) - Audio-Visual Person-of-Interest DeepFake Detection [77.04789677645682]
本研究の目的は、現実世界で遭遇する様々な操作方法やシナリオに対処できるディープフェイク検出器を提案することである。
我々は、対照的な学習パラダイムを活用して、各アイデンティティに対して最も識別しやすい、移動面と音声セグメントの埋め込みを学習する。
本手法は,シングルモダリティ(オーディオのみ,ビデオのみ)とマルチモダリティ(オーディオビデオ)の両方を検出でき,低品質・低画質ビデオに対して堅牢である。
論文 参考訳(メタデータ) (2022-04-06T20:51:40Z) - Human-in-the-Loop Disinformation Detection: Stance, Sentiment, or
Something Else? [93.91375268580806]
政治とパンデミックは、機械学習対応の偽ニュース検出アルゴリズムの開発に十分な動機を与えている。
既存の文献は、主に完全自動化されたケースに焦点を当てているが、その結果得られた技術は、軍事応用に必要な様々なトピック、ソース、時間スケールに関する偽情報を確実に検出することはできない。
既に利用可能なアナリストを人間のループとして活用することにより、感情分析、アスペクトベースの感情分析、姿勢検出といった標準的な機械学習技術は、部分的に自動化された偽情報検出システムに使用するためのもっとも有効な方法となる。
論文 参考訳(メタデータ) (2021-11-09T13:30:34Z) - Improving DeepFake Detection Using Dynamic Face Augmentation [0.8793721044482612]
ほとんどの公開可能なDeepFake検出データセットには、限られたバリエーションがある。
ディープニューラルネットワークは、DeepFakeコンテンツの操作機能を検出するための学習ではなく、顔の特徴にオーバーフィットする傾向があります。
DeepFake検出を改善するために、CNN(Convolutional Neural Networks)をトレーニングするためのデータ拡張方法であるFace-Cutoutを紹介します。
論文 参考訳(メタデータ) (2021-02-18T20:25:45Z) - Adversarially robust deepfake media detection using fused convolutional
neural network predictions [79.00202519223662]
現在のディープフェイク検出システムは、目に見えないデータと戦っている。
ビデオから抽出した偽画像と実画像の分類には,CNN(Deep Convolutional Neural Network)モデルが3種類採用されている。
提案手法は96.5%の精度で最先端のモデルより優れている。
論文 参考訳(メタデータ) (2021-02-11T11:28:00Z) - Deepfakes Detection with Automatic Face Weighting [21.723416806728668]
コンボリューションニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)に基づいて,映像中の顔から視覚的特徴と時間的特徴を抽出し,操作を正確に検出する手法を提案する。
この手法はDeepfake Detection Challengeデータセットを用いて評価され、他の手法と比較して競合的な結果が得られる。
論文 参考訳(メタデータ) (2020-04-25T00:47:42Z) - Emotions Don't Lie: An Audio-Visual Deepfake Detection Method Using
Affective Cues [75.1731999380562]
本稿では,実・偽のディープフェイクマルチメディアコンテンツを検出する学習手法を提案する。
我々は,同じビデオから2つのオーディオと視覚の類似性を抽出し,解析する。
我々は,いくつかのSOTAディープフェイク検出手法との比較を行い,DFDCでは84.4%,DF-TIMITデータセットでは96.6%の動画AUCを報告した。
論文 参考訳(メタデータ) (2020-03-14T22:07:26Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。