論文の概要: ForgeryNet: A Versatile Benchmark for Comprehensive Forgery Analysis
- arxiv url: http://arxiv.org/abs/2103.05630v1
- Date: Tue, 9 Mar 2021 18:58:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 15:07:29.422700
- Title: ForgeryNet: A Versatile Benchmark for Comprehensive Forgery Analysis
- Title(参考訳): ForgeryNet: 包括的なForgery分析のためのVersatileベンチマーク
- Authors: Yinan He, Bei Gan, Siyu Chen, Yichun Zhou, Guojun Yin, Luchuan Song,
Lu Sheng, Jing Shao and Ziwei Liu
- Abstract要約: ForgeryNetは、画像およびビデオレベルのデータに統一アノテーションを付加した、非常に大きな顔フォージェリデータセットである。
ForgeryNetは、データスケールという点では、これまでで最大の、公開可能なディープフェイスフォージェリデータセットである。
- 参考スコア(独自算出の注目度): 36.49022293347066
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The rapid progress of photorealistic synthesis techniques has reached at a
critical point where the boundary between real and manipulated images starts to
blur. Thus, benchmarking and advancing digital forgery analysis have become a
pressing issue. However, existing face forgery datasets either have limited
diversity or only support coarse-grained analysis. To counter this emerging
threat, we construct the ForgeryNet dataset, an extremely large face forgery
dataset with unified annotations in image- and video-level data across four
tasks: 1) Image Forgery Classification, including two-way (real / fake),
three-way (real / fake with identity-replaced forgery approaches / fake with
identity-remained forgery approaches), and n-way (real and 15 respective
forgery approaches) classification. 2) Spatial Forgery Localization, which
segments the manipulated area of fake images compared to their corresponding
source real images. 3) Video Forgery Classification, which re-defines the
video-level forgery classification with manipulated frames in random positions.
This task is important because attackers in real world are free to manipulate
any target frame. and 4) Temporal Forgery Localization, to localize the
temporal segments which are manipulated. ForgeryNet is by far the largest
publicly available deep face forgery dataset in terms of data-scale (2.9
million images, 221,247 videos), manipulations (7 image-level approaches, 8
video-level approaches), perturbations (36 independent and more mixed
perturbations) and annotations (6.3 million classification labels, 2.9 million
manipulated area annotations and 221,247 temporal forgery segment labels). We
perform extensive benchmarking and studies of existing face forensics methods
and obtain several valuable observations.
- Abstract(参考訳): フォトリアリズム合成技術の急速な進歩は、現実と操作された画像の間の境界がぼやけ始める臨界点に達しています。
このように、デジタル偽造分析のベンチマークと進歩が問題となっている。
しかし、既存の顔偽造データセットは多様性が限られているか、粗い粒度の分析しかサポートしていない。
この脅威に対処するために、私たちはForgeryNetデータセットを構築し、画像とビデオレベルのデータに統一されたアノテーションを備えた非常に大きなフォジェリーデータセットを4つのタスクで構築します。1)イメージフォジェリー分類(2つのウェイ(リアル/フェイク)、3つのウェイ(リアル/フェイク)、アイデンティティ置換フォジェリーアプローチ/フェイク(アイデンティティ残されたフォジェリーアプローチ)、nウェイ(リアルおよび15のフォージェリーアプローチ)の分類。
2)偽のイメージの操作された区域を対応する源の実質のイメージと比較する空間的偽造の局在化。
3) ランダムな位置で操作されたフレームを用いてビデオレベルの偽造分類を再定義するビデオ偽造分類。
現実世界の攻撃者は任意のターゲットフレームを自由に操作できるため、このタスクは重要です。
4) 時間的偽造の局所化, 操作される時間的セグメントの局所化。
ForgeryNetは、データスケール(2.9百万画像、221,247ビデオ)、操作(7画像レベルのアプローチ、8ビデオレベルのアプローチ)、摂動(36独立でより混合された摂動)、アノテーション(6.3百万の分類ラベル、2.9百万の操作エリアアノテーション、221,247時間フォジェリーセグメントラベル)の点で、これまでで最大の公開されているディープフェイスフォージェリーデータセットです。
我々は,既存の顔鑑識手法の広範なベンチマークと検討を行い,有意義な知見を得た。
関連論文リスト
- Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - COMICS: End-to-end Bi-grained Contrastive Learning for Multi-face Forgery Detection [56.7599217711363]
顔偽造認識法は一度に1つの顔しか処理できない。
ほとんどの顔偽造認識法は一度に1つの顔しか処理できない。
マルチフェイスフォージェリ検出のためのエンドツーエンドフレームワークであるCOMICSを提案する。
論文 参考訳(メタデータ) (2023-08-03T03:37:13Z) - Collaborative Feature Learning for Fine-grained Facial Forgery Detection
and Segmentation [56.73855202368894]
偽造検出に関する以前の研究は、主に顔全体に焦点を当てていた。
近年の偽造法では、重要な顔成分を編集し、他の成分をそのまま維持する手法が開発されている。
ファリシファイドコンポーネントの操作とセグメンテーションを同時に検出するための協調的特徴学習手法を提案する。
論文 参考訳(メタデータ) (2023-04-17T08:49:11Z) - Hierarchical Forgery Classifier On Multi-modality Face Forgery Clues [61.37306431455152]
我々は,HFC-MFFD (hierarchical Forgery for Multi-modality Face Forgery Detection) を提案する。
HFC-MFFDは、マルチモーダルシナリオにおけるフォージェリー認証を強化するために、堅牢なパッチベースのハイブリッド表現を学習する。
クラス不均衡問題を緩和し、さらに検出性能を高めるために、特定の階層的な顔偽造を提案する。
論文 参考訳(メタデータ) (2022-12-30T10:54:29Z) - CFL-Net: Image Forgery Localization Using Contrastive Learning [16.668334854459143]
コントラッシブ・ロスを用いて特徴空間へのマッピングを学習し、各画像に対して未修正領域と操作領域の特徴を適切に分離する。
本手法は, 偽造型に関する事前の知識や仮定を必要とせず, 操作領域のローカライズに長けている。
論文 参考訳(メタデータ) (2022-10-04T15:31:30Z) - Shrinking the Semantic Gap: Spatial Pooling of Local Moment Invariants
for Copy-Move Forgery Detection [7.460203098159187]
Copy-move forgeryは、特定のパッチをコピー&ペーストして画像に貼り付ける操作で、潜在的に違法または非倫理的使用がある。
コピー・ムーブ・フォージェリーの法医学的手法の進歩は,検出精度とロバスト性の向上に寄与している。
自己相似性が高い画像や強い信号の破損のある画像の場合、既存のアルゴリズムはしばしば非効率なプロセスと信頼性の低い結果を示す。
論文 参考訳(メタデータ) (2022-07-19T09:11:43Z) - ForgeryNet -- Face Forgery Analysis Challenge 2021: Methods and Results [34.73701165667725]
本稿ではForgeryNetベンチマークを用いたForgeryNet - Face Forgery Analysis Challenge 2021の手法と結果を報告する。
合計186人の参加者が参加し、11チームが有効な応募を行った。
論文 参考訳(メタデータ) (2021-12-15T18:17:55Z) - Detection of Deepfake Videos Using Long Distance Attention [73.6659488380372]
既存のほとんどの検出方法は、問題をバニラ二項分類問題として扱う。
本稿では,偽顔と実顔の相違が非常に微妙であるため,特にきめ細かな分類問題として扱われる。
大域的な視点で空間的・時間的偽の痕跡を捉えるための2つの要素を持つ時空間モデルを提案する。
論文 参考訳(メタデータ) (2021-06-24T08:33:32Z) - Syn2Real: Forgery Classification via Unsupervised Domain Adaptation [1.8229783460536682]
本稿では,ディープセマンティック・イメージ・インペイントとコピー・モーブ・フォージェリ・アルゴリズムを用いた合成鍛造データセットを提案する。
我々は、教師なしドメイン適応ネットワークを用いて、合成されたデータセットから特徴空間をマッピングすることで、新しいドメインのコピー・モーブ偽造を検出する。
論文 参考訳(メタデータ) (2020-02-03T15:02:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。