論文の概要: KoDF: A Large-scale Korean DeepFake Detection Dataset
- arxiv url: http://arxiv.org/abs/2103.10094v1
- Date: Thu, 18 Mar 2021 09:04:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 14:08:43.430063
- Title: KoDF: A Large-scale Korean DeepFake Detection Dataset
- Title(参考訳): KoDF:韓国の大規模ディープフェイク検出データセット
- Authors: Patrick Kwon, Jaeseong You, Gyuhyeon Nam, Sungwoo Park, Gyeongsu Chae
- Abstract要約: face-swapとface-reenactmentを総称してdeepfakesと呼ばれるようになった。
私達は韓国の主題に焦点を合わせる合成され、実質のビデオの大規模なコレクションである韓国のDeepFakeの検出のデータセット(KoDF)を、造りました。
本稿では,データセット構築に使用する手法の詳細を説明し,kodfの分布と既存のdeepfake検出データセットとの差異を実験的に示すとともに,実世界の一般化に複数のデータセットを使用することの重要性を強調する。
- 参考スコア(独自算出の注目度): 9.493398442214865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A variety of effective face-swap and face-reenactment methods have been
publicized in recent years, democratizing the face synthesis technology to a
great extent. Videos generated as such have come to be collectively called
deepfakes with a negative connotation, for various social problems they have
caused. Facing the emerging threat of deepfakes, we have built the Korean
DeepFake Detection Dataset (KoDF), a large-scale collection of synthesized and
real videos focused on Korean subjects. In this paper, we provide a detailed
description of methods used to construct the dataset, experimentally show the
discrepancy between the distributions of KoDF and existing deepfake detection
datasets, and underline the importance of using multiple datasets for
real-world generalization. KoDF is publicly available at
https://moneybrain-research.github.io/kodf in its entirety (i.e. real clips,
synthesized clips, clips with additive noise, and their corresponding
metadata).
- Abstract(参考訳): 近年, 顔合成技術の民主化が進み, 顔合成技術が広く普及している。
このようなビデオは、それらが引き起こした様々な社会的問題に対して、否定的な意味を持つディープフェイクと呼ばれるようになった。
韓国のdeepfake detection dataset(kodf)は、韓国の被験者を対象とした合成・実演ビデオの大規模なコレクションだ。
本稿では,データセット構築に使用する手法の詳細を説明し,kodfの分布と既存のdeepfake検出データセットとの差異を実験的に示すとともに,実世界の一般化に複数のデータセットを使用することの重要性を強調する。
KoDFはhttps://moneybrain-research.github.io/kodfで公開されている。
本物のクリップ、合成クリップ、追加ノイズ付きクリップ、およびそれに対応するメタデータ)。
関連論文リスト
- Hindi audio-video-Deepfake (HAV-DF): A Hindi language-based Audio-video Deepfake Dataset [11.164272928464879]
ヒンディー語でのフェイクビデオやスピーチは、農村部や半都市部に多大な影響を及ぼす可能性がある。
本論文は,Hindi Audio-video-Deepfake'(HAV-DF)という,ヒンディー語による新しいディープフェイクデータセットを作成することを目的とする。
論文 参考訳(メタデータ) (2024-11-23T05:18:43Z) - Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - MegaScenes: Scene-Level View Synthesis at Scale [69.21293001231993]
NVS (Scene-level novel view synthesis) は多くの視覚やグラフィックスの応用に基礎を置いている。
MegaScenesと呼ばれるインターネット写真コレクションから大規模なシーンレベルのデータセットを作成し、世界中の動き(SfM)から100K以上の構造を復元する。
我々は、最先端NVS手法の故障事例を分析し、生成一貫性を大幅に改善する。
論文 参考訳(メタデータ) (2024-06-17T17:55:55Z) - DeePhy: On Deepfake Phylogeny [58.01631614114075]
DeePhyは、新しいDeepfake Phylogenyデータセットである。
6つのディープフェイク検出アルゴリズムを用いて,DeePhyデータセットのベンチマークを示す。
論文 参考訳(メタデータ) (2022-09-19T15:30:33Z) - Audio-Visual Person-of-Interest DeepFake Detection [77.04789677645682]
本研究の目的は、現実世界で遭遇する様々な操作方法やシナリオに対処できるディープフェイク検出器を提案することである。
我々は、対照的な学習パラダイムを活用して、各アイデンティティに対して最も識別しやすい、移動面と音声セグメントの埋め込みを学習する。
本手法は,シングルモダリティ(オーディオのみ,ビデオのみ)とマルチモダリティ(オーディオビデオ)の両方を検出でき,低品質・低画質ビデオに対して堅牢である。
論文 参考訳(メタデータ) (2022-04-06T20:51:40Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Model Attribution of Face-swap Deepfake Videos [39.771800841412414]
まず、いくつかのAutoencoderモデルに基づいて、DeepFakes from Different Models (DFDM)を用いた新しいデータセットを導入する。
具体的には、エンコーダ、デコーダ、中間層、入力解像度、圧縮比の5つの世代モデルを用いて、合計6450のDeepfakeビデオを生成する。
我々は,Deepfakesモデルの属性を多クラス分類タスクとして捉え,Deepfakes間の差異を探索するための空間的・時間的注意に基づく手法を提案する。
論文 参考訳(メタデータ) (2022-02-25T20:05:18Z) - FakeAVCeleb: A Novel Audio-Video Multimodal Deepfake Dataset [21.199288324085444]
近年,人間の声のクローン化や合成という新たな課題が表面化しつつある。
ディープフェイクビデオとオーディオを使った偽造攻撃の脅威が高まっているため、ビデオとオーディオの両方に焦点を当てた新しいディープフェイク検知器が求められている。
本稿では, ディープフェイク映像だけでなく, 合成音声も含む新しいオーディオ・ビデオ・ディープフェイク・データセット(FakeAVCeleb)を提案する。
論文 参考訳(メタデータ) (2021-08-11T07:49:36Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [82.42495493102805]
我々は,インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介した。
既存のWildDeepfakeデータセットと我々のWildDeepfakeデータセットのベースライン検出ネットワークを体系的に評価し、WildDeepfakeが実際により困難なデータセットであることを示す。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z) - The DeepFake Detection Challenge (DFDC) Dataset [8.451007921188019]
Deepfakesは、誰でも一つのビデオで2つのIDを交換できるテクニックだ。
この新たな脅威に対処するため、私たちは非常に大きな顔スワップビデオデータセットを構築しました。
記録されたすべての被験者は、顔障害者データセットの構築中にその類似性を変更し、参加することに同意した。
論文 参考訳(メタデータ) (2020-06-12T18:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。