論文の概要: A Convolutional LSTM based Residual Network for Deepfake Video Detection
- arxiv url: http://arxiv.org/abs/2009.07480v1
- Date: Wed, 16 Sep 2020 05:57:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 00:50:00.139157
- Title: A Convolutional LSTM based Residual Network for Deepfake Video Detection
- Title(参考訳): 畳み込みLSTMを用いたディープフェイク映像検出のための残差ネットワーク
- Authors: Shahroz Tariq, Sangyup Lee and Simon S. Woo
- Abstract要約: 我々は、深層ビデオを検出するための畳み込みLSTMベースのResidual Network(CLRNet)を開発した。
また,異なるディープフェイク手法を一般化するための伝達学習に基づくアプローチを提案する。
- 参考スコア(独自算出の注目度): 23.275080108063406
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, deep learning-based video manipulation methods have become
widely accessible to masses. With little to no effort, people can easily learn
how to generate deepfake videos with only a few victims or target images. This
creates a significant social problem for everyone whose photos are publicly
available on the Internet, especially on social media websites. Several deep
learning-based detection methods have been developed to identify these
deepfakes. However, these methods lack generalizability, because they perform
well only for a specific type of deepfake method. Therefore, those methods are
not transferable to detect other deepfake methods. Also, they do not take
advantage of the temporal information of the video. In this paper, we addressed
these limitations. We developed a Convolutional LSTM based Residual Network
(CLRNet), which takes a sequence of consecutive images as an input from a video
to learn the temporal information that helps in detecting unnatural looking
artifacts that are present between frames of deepfake videos. We also propose a
transfer learning-based approach to generalize different deepfake methods.
Through rigorous experimentations using the FaceForensics++ dataset, we showed
that our method outperforms five of the previously proposed state-of-the-art
deepfake detection methods by better generalizing at detecting different
deepfake methods using the same model.
- Abstract(参考訳): 近年,深層学習に基づくビデオ操作手法が大衆に広く普及している。
努力をほとんど必要とせずに、ごく少数の犠牲者やターゲット画像だけでディープフェイクビデオの作り方を簡単に学べる。
これは、写真がインターネット、特にソーシャルメディアのウェブサイトで公開されているすべての人にとって、重大な社会問題を引き起こします。
これらのディープフェイクを識別するために、いくつかのディープラーニングに基づく検出方法が開発されている。
しかし、これらの手法は特定のタイプのディープフェイク法でのみうまく機能するため、一般化性に欠ける。
したがって、これらの手法は他のディープフェイク法を検出できない。
また、ビデオの時間的情報も活用していない。
本稿ではこれらの制限に対処する。
ビデオからの入力として連続画像のシーケンスを取り込んで,ディープフェイク映像のフレーム間に存在する不自然なアーティファクトを検出するのに役立つ時間情報を学習する畳み込み型lstmベース残差ネットワーク(clrnet)を開発した。
また,異なるディープフェイク法を一般化するトランスファー学習に基づくアプローチを提案する。
本研究では,faceforensics++データセットを用いた厳密な実験を通じて,従来提案していたdeepfake検出手法の5つを,同一モデルを用いて異なるdeepfake法を検出する方法の一般化により超えていることを示した。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - Undercover Deepfakes: Detecting Fake Segments in Videos [1.2609216345578933]
ディープフェイク・ジェネレーションは ディープフェイクの新しいパラダイムだ ほとんどは 真実を歪めるために わずかに修正された 実際のビデオだ
本稿では,フレームとビデオレベルでディープフェイク予測を行うことにより,この問題に対処できるディープフェイク検出手法を提案する。
特に、私たちが取り組むパラダイムは、ディープフェイクのモデレーションのための強力なツールを形成します。
論文 参考訳(メタデータ) (2023-05-11T04:43:10Z) - FakeOut: Leveraging Out-of-domain Self-supervision for Multi-modal Video
Deepfake Detection [10.36919027402249]
人間の話し言葉の合成ビデオは、説得力のある方法で誤情報を拡散するのに使用することができる。
FakeOutは、事前トレーニングフェーズと適応フェーズの両方でマルチモーダルデータに依存する、新しいアプローチである。
提案手法は,オーディオ・ビジュアル・データセット上でのクロスデータセットの一般化を実現する。
論文 参考訳(メタデータ) (2022-12-01T18:56:31Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - Audio-Visual Person-of-Interest DeepFake Detection [77.04789677645682]
本研究の目的は、現実世界で遭遇する様々な操作方法やシナリオに対処できるディープフェイク検出器を提案することである。
我々は、対照的な学習パラダイムを活用して、各アイデンティティに対して最も識別しやすい、移動面と音声セグメントの埋め込みを学習する。
本手法は,シングルモダリティ(オーディオのみ,ビデオのみ)とマルチモダリティ(オーディオビデオ)の両方を検出でき,低品質・低画質ビデオに対して堅牢である。
論文 参考訳(メタデータ) (2022-04-06T20:51:40Z) - One Detector to Rule Them All: Towards a General Deepfake Attack
Detection Framework [19.762839181838388]
本稿では,LSTMに基づくResidual Network(CLRNet)を導入し,未知の未確認ディープフェイクに対処する。
我々のCLRNetモデルは、93.86%の精度で高品質なDFWビデオに対してうまく一般化できることを実証した。
論文 参考訳(メタデータ) (2021-05-01T08:02:59Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [82.42495493102805]
我々は,インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介した。
既存のWildDeepfakeデータセットと我々のWildDeepfakeデータセットのベースライン検出ネットワークを体系的に評価し、WildDeepfakeが実際により困難なデータセットであることを示す。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z) - Identity-Driven DeepFake Detection [91.0504621868628]
アイデンティティ駆動のDeepFake Detectionは、被疑者画像/ビデオとターゲットのアイデンティティ情報を入力する。
被疑者画像・映像の同一性は対象人物と同一かという判断を出力する。
本稿では,新たな研究のベースラインとして,簡単な識別ベース検出アルゴリズムであるouterfaceを提案する。
論文 参考訳(メタデータ) (2020-12-07T18:59:08Z) - Deepfake Detection using Spatiotemporal Convolutional Networks [0.0]
ディープフェイク検出法は個々のフレームのみを使用し、時間情報から学習することができない。
我々はCeleb-DFデータセットを用いて性能のベンチマークを作成した。
提案手法は,最先端のフレームベース検出法より優れていた。
論文 参考訳(メタデータ) (2020-06-26T01:32:31Z) - Deepfake Video Forensics based on Transfer Learning [0.0]
ディープフェイク」は、人間が本物のものと区別できない偽のイメージやビデオを作ることができる。
本稿では,各ディープフェイク映像フレームの特徴を把握するために,画像分類モデルを再学習する方法について述べる。
Deepfakeのビデオをチェックすると、87%以上の精度が得られた。
論文 参考訳(メタデータ) (2020-04-29T13:21:28Z) - Emotions Don't Lie: An Audio-Visual Deepfake Detection Method Using
Affective Cues [75.1731999380562]
本稿では,実・偽のディープフェイクマルチメディアコンテンツを検出する学習手法を提案する。
我々は,同じビデオから2つのオーディオと視覚の類似性を抽出し,解析する。
我々は,いくつかのSOTAディープフェイク検出手法との比較を行い,DFDCでは84.4%,DF-TIMITデータセットでは96.6%の動画AUCを報告した。
論文 参考訳(メタデータ) (2020-03-14T22:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。