論文の概要: Deepfake Video Forensics based on Transfer Learning
- arxiv url: http://arxiv.org/abs/2004.14178v1
- Date: Wed, 29 Apr 2020 13:21:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 14:10:51.659816
- Title: Deepfake Video Forensics based on Transfer Learning
- Title(参考訳): トランスファー学習に基づくディープフェイクビデオ鑑識
- Authors: Rahul U, Ragul M, Raja Vignesh K, Tejeswinee K
- Abstract要約: ディープフェイク」は、人間が本物のものと区別できない偽のイメージやビデオを作ることができる。
本稿では,各ディープフェイク映像フレームの特徴を把握するために,画像分類モデルを再学習する方法について述べる。
Deepfakeのビデオをチェックすると、87%以上の精度が得られた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deeplearning has been used to solve complex problems in various domains. As
it advances, it also creates applications which become a major threat to our
privacy, security and even to our Democracy. Such an application which is being
developed recently is the "Deepfake". Deepfake models can create fake images
and videos that humans cannot differentiate them from the genuine ones.
Therefore, the counter application to automatically detect and analyze the
digital visual media is necessary in today world. This paper details retraining
the image classification models to apprehend the features from each deepfake
video frames. After feeding different sets of deepfake clips of video fringes
through a pretrained layer of bottleneck in the neural network is made for
every video frame, already stated layer contains condense data for all images
and exposes artificial manipulations in Deepfake videos. When checking Deepfake
videos, this technique received more than 87 per cent accuracy. This technique
has been tested on the Face Forensics dataset and obtained good accuracy in
detection.
- Abstract(参考訳): ディープラーニングは様々な領域の複雑な問題を解決するために使われてきた。
それはまた、私たちのプライバシーやセキュリティ、さらには民主主義に対する大きな脅威となるアプリケーションを生み出します。
最近開発されているアプリケーションは、"deepfake"(ディープフェイク)だ。
Deepfakeモデルは、人間が本物のものと区別できない偽のイメージやビデオを作成することができる。
したがって,デジタル映像メディアを自動的に検出・解析するカウンタアプリケーションは,現代世界では必要である。
本稿では,各ディープフェイク映像フレームの特徴を把握するために,画像分類モデルを再学習する方法について述べる。
ビデオフレーム毎に、ニューラルネットワークで予め訓練されたボトルネック層を通じてビデオフリンジのディープフェイククリップの異なるセットを供給した後、すでに述べられている層は、すべての画像の凝縮データを含み、ディープフェイクビデオにおける人工的な操作を露出する。
deepfakeビデオをチェックすると、このテクニックは87パーセント以上の精度を得た。
この技術はFace Forensicsデータセットでテストされ、検出の精度が向上した。
関連論文リスト
- What Matters in Detecting AI-Generated Videos like Sora? [51.05034165599385]
合成ビデオと現実世界のビデオのギャップは、まだ未発見のままだ。
本研究では,現在最先端のAIモデルであるStable Video Diffusionによって生成された実世界の映像を比較した。
我々のモデルは、訓練中にSoraのビデオに露出することなく、Soraが生成した映像を高精度に検出することができる。
論文 参考訳(メタデータ) (2024-06-27T23:03:58Z) - Comparative Analysis of Deep-Fake Algorithms [0.0]
ディープフェイク(Deepfakes)は、ディープラーニングベースのフェイクビデオとしても知られており、近年大きな関心を集めている。
これらのディープフェイクビデオは、誤った情報を広めたり、個人を偽装したり、フェイクニュースを作るといった悪質な目的で使用することができる。
ディープフェイク検出技術は、顔認識、モーション分析、音声と視覚の同期といった様々なアプローチを使用する。
論文 参考訳(メタデータ) (2023-09-06T18:17:47Z) - DeePhy: On Deepfake Phylogeny [58.01631614114075]
DeePhyは、新しいDeepfake Phylogenyデータセットである。
6つのディープフェイク検出アルゴリズムを用いて,DeePhyデータセットのベンチマークを示す。
論文 参考訳(メタデータ) (2022-09-19T15:30:33Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - Practical Deepfake Detection: Vulnerabilities in Global Contexts [1.6114012813668934]
ディープラーニングは、ディープフェイクとして知られるビデオへのデジタル変更を可能にした。
この技術は、偽情報や認証に関する重要な社会的関心を喚起する。
我々は、FaceForensics++データセットの破損した変種に対して、データ消去手法をシミュレートし、最先端のディープフェイク検出アルゴリズムの性能について検討する。
論文 参考訳(メタデータ) (2022-06-20T15:24:55Z) - Adversarially robust deepfake media detection using fused convolutional
neural network predictions [79.00202519223662]
現在のディープフェイク検出システムは、目に見えないデータと戦っている。
ビデオから抽出した偽画像と実画像の分類には,CNN(Deep Convolutional Neural Network)モデルが3種類採用されている。
提案手法は96.5%の精度で最先端のモデルより優れている。
論文 参考訳(メタデータ) (2021-02-11T11:28:00Z) - Detecting Deepfake Videos Using Euler Video Magnification [1.8506048493564673]
Deepfakeのビデオは、高度な機械学習技術を使ってビデオを操作している。
本稿では,ディープフェイク映像の識別技術について検討する。
提案手法では,Euler手法から抽出した特徴を用いて,偽造映像と未修正映像を分類する3つのモデルを訓練する。
論文 参考訳(メタデータ) (2021-01-27T17:37:23Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [82.42495493102805]
我々は,インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介した。
既存のWildDeepfakeデータセットと我々のWildDeepfakeデータセットのベースライン検出ネットワークを体系的に評価し、WildDeepfakeが実際により困難なデータセットであることを示す。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z) - A Convolutional LSTM based Residual Network for Deepfake Video Detection [23.275080108063406]
我々は、深層ビデオを検出するための畳み込みLSTMベースのResidual Network(CLRNet)を開発した。
また,異なるディープフェイク手法を一般化するための伝達学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T05:57:06Z) - Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to
Adversarial Examples [23.695497512694068]
ビデオ操作技術の最近の進歩は、偽ビデオの生成をこれまで以上にアクセスしやすくしている。
操作されたビデオは偽情報を燃やし、メディアの信頼を減らすことができる。
近年開発されたDeepfake検出方法は、AI生成のフェイクビデオと実際のビデオとを区別するために、ディープニューラルネットワーク(DNN)に依存している。
論文 参考訳(メタデータ) (2020-02-09T07:10:58Z) - Detecting Face2Face Facial Reenactment in Videos [76.9573023955201]
本研究では,再現性に基づく変化を検出する学習に基づくアルゴリズムを提案する。
提案アルゴリズムは,局所的なアーティファクトを学習し,様々な圧縮レベルで堅牢な性能を提供するマルチストリームネットワークを用いている。
その結果, 99.96%, 99.10%, 91.20%の非, 容易, 硬度圧縮係数が得られた。
論文 参考訳(メタデータ) (2020-01-21T11:03:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。