論文の概要: DREAM: A Benchmark Study for Deepfake REalism AssessMent
- arxiv url: http://arxiv.org/abs/2510.10053v1
- Date: Sat, 11 Oct 2025 06:41:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.754272
- Title: DREAM: A Benchmark Study for Deepfake REalism AssessMent
- Title(参考訳): DREAM:Deepfake Realism AssessMentのベンチマーク調査
- Authors: Bo Peng, Zichuan Wang, Sheng Yu, Xiaochuan Jin, Wei Wang, Jing Dong,
- Abstract要約: 本稿では,Deepfake Realism AssessMentの略であるDREAMという総合ベンチマークを提案する。
多様な品質のディープフェイクビデオデータセットと、140,000のリアリズムスコアと3500人のアノテーションから得られたテキスト記述を含む大規模なアノテーションで構成されている。
- 参考スコア(独自算出の注目度): 12.366894730959809
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning based face-swap videos, widely known as deepfakes, have drawn wide attention due to their threat to information credibility. Recent works mainly focus on the problem of deepfake detection that aims to reliably tell deepfakes apart from real ones, in an objective way. On the other hand, the subjective perception of deepfakes, especially its computational modeling and imitation, is also a significant problem but lacks adequate study. In this paper, we focus on the visual realism assessment of deepfakes, which is defined as the automatic assessment of deepfake visual realism that approximates human perception of deepfakes. It is important for evaluating the quality and deceptiveness of deepfakes which can be used for predicting the influence of deepfakes on Internet, and it also has potentials in improving the deepfake generation process by serving as a critic. This paper prompts this new direction by presenting a comprehensive benchmark called DREAM, which stands for Deepfake REalism AssessMent. It is comprised of a deepfake video dataset of diverse quality, a large scale annotation that includes 140,000 realism scores and textual descriptions obtained from 3,500 human annotators, and a comprehensive evaluation and analysis of 16 representative realism assessment methods, including recent large vision language model based methods and a newly proposed description-aligned CLIP method. The benchmark and insights included in this study can lay the foundation for future research in this direction and other related areas.
- Abstract(参考訳): ディープフェイク(Deepfakes)として知られるディープラーニングベースのフェイススワップビデオは、情報信頼性に対する脅威から広く注目を集めている。
最近の研究は、主に、実際のものと異なるディープフェイクを客観的に確実に伝えることを目的としたディープフェイク検出の問題に焦点を当てている。
一方、ディープフェイクの主観的知覚、特に計算モデルと模倣は重要な問題であるが、十分な研究は欠如している。
本稿では、ディープフェイクの人間の知覚を近似したディープフェイク視覚リアリズムの自動評価として定義されるディープフェイクの視覚リアリズム評価に焦点を当てる。
インターネット上でのディープフェイクの影響を予測できるディープフェイクの品質と偽造性を評価する上でも重要であり、また批評家として機能することでディープフェイク生成プロセスを改善する可能性も持っている。
本稿では,Deepfake Realism AssessMentの略であるDREAMという総合的なベンチマークを提示することによって,この新たな方向性を推し進める。
多様な品質のディープフェイクビデオデータセットと、3500人のアノテータから得られた14000のリアリズムスコアとテキスト記述を含む大規模アノテーションと、最近の大規模視覚言語モデルに基づく手法と新たに提案された記述整合CLIP法を含む16の代表的なリアリズム評価手法の総合評価と分析からなる。
この研究に含まれるベンチマークと洞察は、この方向や他の関連分野における将来の研究の基盤となる可能性がある。
関連論文リスト
- Deepfake Media Generation and Detection in the Generative AI Era: A Survey and Outlook [101.30779332427217]
本研究は,近年の現場開発を含むディープフェイク発生・検出技術について調査する。
偽コンテンツの変更や生成に使用する手順に従って,様々な種類のディープフェイクを識別する。
我々は,分布外コンテンツに基づくディープフェイク検出のための新しいマルチモーダル・ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-11-29T08:29:25Z) - Understanding Audiovisual Deepfake Detection: Techniques, Challenges, Human Factors and Perceptual Insights [49.81915942821647]
ディープラーニングは様々な分野に適用され、ディープフェイク検出への影響は例外ではない。
ディープフェイク(英: Deepfakes)は、政治的偽造、フィッシング、スランダリング、偽情報の拡散に偽装的に使用できる、偽物だが現実的な合成コンテンツである。
本稿では,ディープフェイク検出戦略の有効性を改善し,サイバーセキュリティとメディアの整合性に関する今後の研究を導くことを目的とする。
論文 参考訳(メタデータ) (2024-11-12T09:02:11Z) - Deep Learning Technology for Face Forgery Detection: A Survey [17.519617618071003]
ディープラーニングにより、高忠実度顔画像やビデオの作成や操作が可能になった。
この技術はディープフェイクとしても知られ、劇的な進歩を遂げ、ソーシャルメディアで人気を博している。
ディープフェイクのリスクを低減するため、強力な偽造検出方法を開発することが望ましい。
論文 参考訳(メタデータ) (2024-09-22T01:42:01Z) - Linguistic Profiling of Deepfakes: An Open Database for Next-Generation
Deepfake Detection [40.20982463380279]
本稿では,Deepfake データベース (DFLIP-3K) を提案する。
約3K生成モデルから約300Kの多様なディープフェイクサンプルが含まれており、この文献で最も多くのディープフェイクモデルがある。
この2つの特徴により、DFLIP-3Kはディープフェイクの言語プロファイリングの進歩を促進するベンチマークを開発することができる。
論文 参考訳(メタデータ) (2024-01-04T16:19:52Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Leveraging Deep Learning Approaches for Deepfake Detection: A Review [0.0]
ディープフェイク(Deepfakes)は、AIによって生成されたメディアであり、実際のメディアから切り離すことが難しい。
本稿では,コスト効率のよいモデルを実現するために,様々な手法を検討することを目的とする。
論文 参考訳(メタデータ) (2023-04-04T16:04:42Z) - DeepFake Detection with Inconsistent Head Poses: Reproducibility and
Analysis [0.0]
本稿では,ヘッドポーズ推定に基づく既存のDeepFake検出手法について分析する。
以上の結果から,DeepFake検出のためのアートパフォーマンスに対する現在の文献の認識を正すことができた。
論文 参考訳(メタデータ) (2021-08-28T22:56:09Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [82.42495493102805]
我々は,インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介した。
既存のWildDeepfakeデータセットと我々のWildDeepfakeデータセットのベースライン検出ネットワークを体系的に評価し、WildDeepfakeが実際により困難なデータセットであることを示す。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。