論文の概要: Deepfakes Detection with Automatic Face Weighting
- arxiv url: http://arxiv.org/abs/2004.12027v2
- Date: Mon, 4 May 2020 19:44:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 22:10:53.770259
- Title: Deepfakes Detection with Automatic Face Weighting
- Title(参考訳): 顔の自動重み付けによるディープフェイク検出
- Authors: Daniel Mas Montserrat, Hanxiang Hao, S. K. Yarlagadda, Sriram
Baireddy, Ruiting Shao, J\'anos Horv\'ath, Emily Bartusiak, Justin Yang,
David G\"uera, Fengqing Zhu, Edward J. Delp
- Abstract要約: コンボリューションニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)に基づいて,映像中の顔から視覚的特徴と時間的特徴を抽出し,操作を正確に検出する手法を提案する。
この手法はDeepfake Detection Challengeデータセットを用いて評価され、他の手法と比較して競合的な結果が得られる。
- 参考スコア(独自算出の注目度): 21.723416806728668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Altered and manipulated multimedia is increasingly present and widely
distributed via social media platforms. Advanced video manipulation tools
enable the generation of highly realistic-looking altered multimedia. While
many methods have been presented to detect manipulations, most of them fail
when evaluated with data outside of the datasets used in research environments.
In order to address this problem, the Deepfake Detection Challenge (DFDC)
provides a large dataset of videos containing realistic manipulations and an
evaluation system that ensures that methods work quickly and accurately, even
when faced with challenging data. In this paper, we introduce a method based on
convolutional neural networks (CNNs) and recurrent neural networks (RNNs) that
extracts visual and temporal features from faces present in videos to
accurately detect manipulations. The method is evaluated with the DFDC dataset,
providing competitive results compared to other techniques.
- Abstract(参考訳): 修正および操作されたマルチメディアは、ソーシャルメディアプラットフォームを介して、ますます広く普及している。
高度なビデオ操作ツールは、非常にリアルな外観のマルチメディアを生成できる。
操作を検出する多くの方法が提示されているが、そのほとんどは、研究環境で使用されるデータセット以外のデータで評価されると失敗する。
この問題に対処するために、Deepfake Detection Challenge (DFDC)は、現実的な操作を含む大量のビデオデータセットと、挑戦的なデータに直面した場合でも、メソッドが迅速かつ正確に動作することを保証する評価システムを提供する。
本稿では,コンボリューショナルニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)に基づいて,映像中の顔から視覚的・時間的特徴を抽出し,操作を正確に検出する手法を提案する。
本手法はDFDCデータセットを用いて評価し,他の手法と比較して比較結果が得られた。
関連論文リスト
- Contextual Cross-Modal Attention for Audio-Visual Deepfake Detection and Localization [3.9440964696313485]
デジタル時代には、ディープフェイクや合成メディアの出現は、社会的・政治的整合性に対する重大な脅威となる。
オーディオ視覚のようなマルチモーダル操作に基づくディープフェイクは、より現実的であり、より大きな脅威をもたらす。
本稿では,音声・視覚的ディープフェイク検出にコンテキスト情報を活用する,リカレントニューラルネットワーク(RNN)に基づく新しいマルチモーダルアテンションフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-02T18:45:01Z) - Unmasking Deepfake Faces from Videos Using An Explainable Cost-Sensitive
Deep Learning Approach [0.0]
ディープフェイク技術は広く使われており、デジタルメディアの信頼性に関する深刻な懸念につながっている。
本研究は,映像中のディープフェイク顔を効果的に検出するために,リソース効率が高く透明なコスト感受性深層学習法を用いている。
論文 参考訳(メタデータ) (2023-12-17T14:57:10Z) - AVTENet: Audio-Visual Transformer-based Ensemble Network Exploiting
Multiple Experts for Video Deepfake Detection [53.448283629898214]
近年の超現実的なディープフェイクビデオの普及は、オーディオと視覚の偽造の脅威に注意を向けている。
AI生成のフェイクビデオの検出に関するこれまでのほとんどの研究は、視覚的モダリティまたはオーディオ的モダリティのみを使用していた。
音響操作と視覚操作の両方を考慮したAVTENet(Audio-Visual Transformer-based Ensemble Network)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-19T19:01:26Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Mitigating Representation Bias in Action Recognition: Algorithms and
Benchmarks [76.35271072704384]
ディープラーニングモデルは、稀なシーンやオブジェクトを持つビデオに適用すると、パフォーマンスが悪くなります。
この問題にはアルゴリズムとデータセットの2つの異なる角度から対処する。
偏りのある表現は、他のデータセットやタスクに転送するとより一般化できることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:30:35Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - A Hybrid CNN-LSTM model for Video Deepfake Detection by Leveraging
Optical Flow Features [0.0]
ディープフェイク(Deepfakes)は、デジタルメディアの合成で、超リアルなフェイクビデオを作り、観客を騙す。
本稿では,光学フローに基づく特徴抽出手法を用いて時間的特徴を抽出し,分類のためのハイブリッドモデルに供給する。
このハイブリッドモデルは、DFDC、FF++、Celeb-DFといったオープンソースのデータセットに効果的なパフォーマンスを提供する。
論文 参考訳(メタデータ) (2022-07-28T09:38:09Z) - M2TR: Multi-modal Multi-scale Transformers for Deepfake Detection [74.19291916812921]
Deepfake技術によって生成された鍛造画像は、デジタル情報の信頼性に深刻な脅威をもたらします。
本稿では,Deepfake検出のための微妙な操作アーチファクトを異なるスケールで捉えることを目的とする。
最先端の顔スワッピングと顔の再現方法によって生成された4000のDeepFakeビデオで構成される高品質のDeepFakeデータセットSR-DFを紹介します。
論文 参考訳(メタデータ) (2021-04-20T05:43:44Z) - Improving DeepFake Detection Using Dynamic Face Augmentation [0.8793721044482612]
ほとんどの公開可能なDeepFake検出データセットには、限られたバリエーションがある。
ディープニューラルネットワークは、DeepFakeコンテンツの操作機能を検出するための学習ではなく、顔の特徴にオーバーフィットする傾向があります。
DeepFake検出を改善するために、CNN(Convolutional Neural Networks)をトレーニングするためのデータ拡張方法であるFace-Cutoutを紹介します。
論文 参考訳(メタデータ) (2021-02-18T20:25:45Z) - Training Strategies and Data Augmentations in CNN-based DeepFake Video
Detection [17.696134665850447]
ビデオにおける顔偽造検出のための自動システムの精度は依然として非常に限られており、特定の検知システムの設計と訓練に使用されるデータセットに偏っている。
本稿では、異なるトレーニング戦略とデータ拡張技術が、同じデータセット上でトレーニングやテストを行う場合、あるいは異なるデータセット間で、CNNベースのディープフェイク検出器にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2020-11-16T08:50:56Z) - Emotions Don't Lie: An Audio-Visual Deepfake Detection Method Using
Affective Cues [75.1731999380562]
本稿では,実・偽のディープフェイクマルチメディアコンテンツを検出する学習手法を提案する。
我々は,同じビデオから2つのオーディオと視覚の類似性を抽出し,解析する。
我々は,いくつかのSOTAディープフェイク検出手法との比較を行い,DFDCでは84.4%,DF-TIMITデータセットでは96.6%の動画AUCを報告した。
論文 参考訳(メタデータ) (2020-03-14T22:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。