論文の概要: WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection
- arxiv url: http://arxiv.org/abs/2101.01456v1
- Date: Tue, 5 Jan 2021 11:10:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 11:42:19.467657
- Title: WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection
- Title(参考訳): WildDeepfake: ディープフェイク検出のためのリアルタイムデータセット
- Authors: Bojia Zi, Minghao Chang, Jingjing Chen, Xingjun Ma, Yu-Gang Jiang
- Abstract要約: 近年、ディープフェイク(deepfake deepfake)と呼ばれるフェイススワップ技術が悪用され、人々の関心が高まっている。
ディープフェイクに対する有望な対策はディープフェイク検出です。
deepfake検出器のトレーニングとテストをサポートするために、いくつかのdeepfakeデータセットがリリースされた。
インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介します。
- 参考スコア(独自算出の注目度): 73.61769046989258
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, the abuse of a face swap technique called deepfake Deepfake
has raised enormous public concerns. So far, a large number of deepfake videos
(known as "deepfakes") have been crafted and uploaded to the internet, calling
for effective countermeasures. One promising countermeasure against deepfakes
is deepfake detection. Several deepfake datasets have been released to support
the training and testing of deepfake detectors, such as DeepfakeDetection and
FaceForensics++. While this has greatly advanced deepfake detection, most of
the real videos in these datasets are filmed with a few volunteer actors in
limited scenes, and the fake videos are crafted by researchers using a few
popular deepfake softwares. Detectors developed on these datasets may become
less effective against real-world deepfakes on the internet. To better support
detection against real-world deepfakes, in this paper, we introduce a new
dataset WildDeepfake, which consists of 7,314 face sequences extracted from 707
deepfake videos collected completely from the internet. WildDeepfake is a small
dataset that can be used, in addition to existing datasets, to develop and test
the effectiveness of deepfake detectors against real-world deepfakes. We
conduct a systematic evaluation of a set of baseline detection networks on both
existing and our WildDeepfake datasets, and show that WildDeepfake is indeed a
more challenging dataset, where the detection performance can decrease
drastically. We also propose two (eg. 2D and 3D) Attention-based Deepfake
Detection Networks (ADDNets) to leverage the attention masks on real/fake faces
for improved detection. We empirically verify the effectiveness of ADDNets on
both existing datasets and WildDeepfake. The dataset is available
at:https://github.com/deepfakeinthewild/deepfake-in-the-wild.
- Abstract(参考訳): 近年、ディープフェイク(deepfake deepfake)と呼ばれるフェイススワップ技術が悪用され、人々の関心が高まっている。
これまで多くのディープフェイクビデオ(ディープフェイクとして知られる)が制作され、インターネットにアップロードされ、効果的な対策が求められてきた。
ディープフェイク対策の1つはディープフェイク検出である。
deepfake detectionionやfaceforensics++など、deepfake検出器のトレーニングとテストをサポートするために、いくつかのdeepfakeデータセットがリリースされた。
これはディープフェイク検出を大幅に進歩させたものだが、これらのデータセットの実際のビデオのほとんどは、一部のボランティアアクターが限られたシーンで撮影されている。
これらのデータセットで開発された検出器は、インターネット上の現実世界のディープフェイクに対して効果が低下する可能性がある。
本稿では,実世界のディープフェイク検出を支援するために,インターネットから完全に収集した707個のディープフェイクビデオから抽出した7,314個の顔シーケンスからなる新しいデータセットWildDeepfakeを提案する。
WildDeepfakeは、既存のデータセットに加えて、現実世界のディープフェイクに対するディープフェイク検出の有効性の開発とテストに使用できる小さなデータセットである。
既存のデータセットとワイルドディープフェイクデータセットの両方で、一連のベースライン検出ネットワークを体系的に評価し、ワイルドディープフェイクは確かにより困難なデータセットであり、検出性能が劇的に低下することを示している。
また2つ提案する(例)。
2Dおよび3D) 注意型ディープフェイク検出ネットワーク(ADDNets)は、リアルタイム/フェイク顔のアテンションマスクを利用して検出を改善する。
ADDNetsが既存のデータセットとWildDeepfakeの両方に与える影響を実証的に検証する。
データセットは:https://github.com/deepfakeinthewild/deepfake-in-the-wildで入手できる。
関連論文リスト
- Improving Cross-dataset Deepfake Detection with Deep Information
Decomposition [57.284370468207214]
ディープフェイク技術は、セキュリティと社会的信頼に重大な脅威をもたらす。
既存の検出方法は、クロスデータセットのシナリオに直面した場合、パフォーマンスの急激な低下に悩まされる。
本稿では,深層情報分解(DID)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Why Do Facial Deepfake Detectors Fail? [9.60306700003662]
近年のディープフェイク技術の発展により、ビデオ、画像、オーディオなどの非常に現実的な偽メディアの作成が可能になった。
これらの資料は、偽造、偽情報、さらには国家安全保障に対する脅威など、人間の認証に重大な課題を提起している。
いくつかのディープフェイク検出アルゴリズムが提案されており、ディープフェイク作成者とディープフェイク検出装置との間の武器競争が進行中である。
論文 参考訳(メタデータ) (2023-02-25T20:54:02Z) - DeePhy: On Deepfake Phylogeny [58.01631614114075]
DeePhyは、新しいDeepfake Phylogenyデータセットである。
6つのディープフェイク検出アルゴリズムを用いて,DeePhyデータセットのベンチマークを示す。
論文 参考訳(メタデータ) (2022-09-19T15:30:33Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - FakeAVCeleb: A Novel Audio-Video Multimodal Deepfake Dataset [21.199288324085444]
近年,人間の声のクローン化や合成という新たな課題が表面化しつつある。
ディープフェイクビデオとオーディオを使った偽造攻撃の脅威が高まっているため、ビデオとオーディオの両方に焦点を当てた新しいディープフェイク検知器が求められている。
本稿では, ディープフェイク映像だけでなく, 合成音声も含む新しいオーディオ・ビデオ・ディープフェイク・データセット(FakeAVCeleb)を提案する。
論文 参考訳(メタデータ) (2021-08-11T07:49:36Z) - Understanding the Security of Deepfake Detection [23.118012417901078]
本研究では,最先端のディープフェイク検出手法の対向的設定における安全性について検討する。
FaceForensics++やFacebook Deepfake Detection Challengeなど、大規模な公開ディープフェイクデータソースを2つ使用しています。
本研究は, 対戦環境におけるディープフェイク検出手法のセキュリティ上の制約を明らかにした。
論文 参考訳(メタデータ) (2021-07-05T14:18:21Z) - M2TR: Multi-modal Multi-scale Transformers for Deepfake Detection [74.19291916812921]
Deepfake技術によって生成された鍛造画像は、デジタル情報の信頼性に深刻な脅威をもたらします。
本稿では,Deepfake検出のための微妙な操作アーチファクトを異なるスケールで捉えることを目的とする。
最先端の顔スワッピングと顔の再現方法によって生成された4000のDeepFakeビデオで構成される高品質のDeepFakeデータセットSR-DFを紹介します。
論文 参考訳(メタデータ) (2021-04-20T05:43:44Z) - Multi-attentional Deepfake Detection [79.80308897734491]
ディープフェイクによる顔の偽造はインターネットに広まり、深刻な社会的懸念を引き起こしている。
新たなマルチアテンテーショナルディープフェイク検出ネットワークを提案する。
具体的には,1)ネットワークを異なる局所的部分へ配置するための複数の空間的注意ヘッド,2)浅い特徴の微妙なアーティファクトをズームするテクスチャ的特徴拡張ブロック,3)低レベルなテクスチャ特徴と高レベルなセマンティクス特徴をアグリゲートする,の3つの構成要素からなる。
論文 参考訳(メタデータ) (2021-03-03T13:56:14Z) - Deepfake detection: humans vs. machines [4.485016243130348]
クラウドソーシングのようなシナリオで実施した主観的研究で,ビデオがディープフェイクであるか否かを人間が確認することがいかに困難であるかを体系的に評価する。
各ビデオについて、簡単な質問は「ビデオの中の人物の顔は偽物か?」というものだった。
この評価は、人間の知覚が機械の知覚とは大きく異なるが、成功しても異なる方法ではディープフェイクに騙されることを示した。
論文 参考訳(メタデータ) (2020-09-07T15:20:37Z) - Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to
Adversarial Examples [23.695497512694068]
ビデオ操作技術の最近の進歩は、偽ビデオの生成をこれまで以上にアクセスしやすくしている。
操作されたビデオは偽情報を燃やし、メディアの信頼を減らすことができる。
近年開発されたDeepfake検出方法は、AI生成のフェイクビデオと実際のビデオとを区別するために、ディープニューラルネットワーク(DNN)に依存している。
論文 参考訳(メタデータ) (2020-02-09T07:10:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。