論文の概要: DREAM: A Benchmark Study for Deepfake REalism AssessMent
- arxiv url: http://arxiv.org/abs/2510.10053v1
- Date: Sat, 11 Oct 2025 06:41:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.754272
- Title: DREAM: A Benchmark Study for Deepfake REalism AssessMent
- Title(参考訳): DREAM:Deepfake Realism AssessMentのベンチマーク調査
- Authors: Bo Peng, Zichuan Wang, Sheng Yu, Xiaochuan Jin, Wei Wang, Jing Dong,
- Abstract要約: 本稿では,Deepfake Realism AssessMentの略であるDREAMという総合ベンチマークを提案する。
多様な品質のディープフェイクビデオデータセットと、140,000のリアリズムスコアと3500人のアノテーションから得られたテキスト記述を含む大規模なアノテーションで構成されている。
- 参考スコア(独自算出の注目度): 12.366894730959809
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning based face-swap videos, widely known as deepfakes, have drawn wide attention due to their threat to information credibility. Recent works mainly focus on the problem of deepfake detection that aims to reliably tell deepfakes apart from real ones, in an objective way. On the other hand, the subjective perception of deepfakes, especially its computational modeling and imitation, is also a significant problem but lacks adequate study. In this paper, we focus on the visual realism assessment of deepfakes, which is defined as the automatic assessment of deepfake visual realism that approximates human perception of deepfakes. It is important for evaluating the quality and deceptiveness of deepfakes which can be used for predicting the influence of deepfakes on Internet, and it also has potentials in improving the deepfake generation process by serving as a critic. This paper prompts this new direction by presenting a comprehensive benchmark called DREAM, which stands for Deepfake REalism AssessMent. It is comprised of a deepfake video dataset of diverse quality, a large scale annotation that includes 140,000 realism scores and textual descriptions obtained from 3,500 human annotators, and a comprehensive evaluation and analysis of 16 representative realism assessment methods, including recent large vision language model based methods and a newly proposed description-aligned CLIP method. The benchmark and insights included in this study can lay the foundation for future research in this direction and other related areas.
- Abstract(参考訳): ディープフェイク(Deepfakes)として知られるディープラーニングベースのフェイススワップビデオは、情報信頼性に対する脅威から広く注目を集めている。
最近の研究は、主に、実際のものと異なるディープフェイクを客観的に確実に伝えることを目的としたディープフェイク検出の問題に焦点を当てている。
一方、ディープフェイクの主観的知覚、特に計算モデルと模倣は重要な問題であるが、十分な研究は欠如している。
本稿では、ディープフェイクの人間の知覚を近似したディープフェイク視覚リアリズムの自動評価として定義されるディープフェイクの視覚リアリズム評価に焦点を当てる。
インターネット上でのディープフェイクの影響を予測できるディープフェイクの品質と偽造性を評価する上でも重要であり、また批評家として機能することでディープフェイク生成プロセスを改善する可能性も持っている。
本稿では,Deepfake Realism AssessMentの略であるDREAMという総合的なベンチマークを提示することによって,この新たな方向性を推し進める。
多様な品質のディープフェイクビデオデータセットと、3500人のアノテータから得られた14000のリアリズムスコアとテキスト記述を含む大規模アノテーションと、最近の大規模視覚言語モデルに基づく手法と新たに提案された記述整合CLIP法を含む16の代表的なリアリズム評価手法の総合評価と分析からなる。
この研究に含まれるベンチマークと洞察は、この方向や他の関連分野における将来の研究の基盤となる可能性がある。
関連論文リスト
- Comparative Analysis of Deepfake Detection Models: New Approaches and Perspectives [0.0]
この研究は、GenConViTモデルに焦点を当て、ディープフェイクを識別するための異なるアプローチを調査し、比較する。
研究を文脈化するために、ディープフェイクの社会的および法的影響と、それらの創造と検出の技術的基礎に対処する。
その結果、GenConViTは微調整後、精度(93.82%)と一般化能力において優れた性能を示した。
論文 参考訳(メタデータ) (2025-04-03T02:10:27Z) - Deepfake Media Generation and Detection in the Generative AI Era: A Survey and Outlook [101.30779332427217]
本研究は,近年の現場開発を含むディープフェイク発生・検出技術について調査する。
偽コンテンツの変更や生成に使用する手順に従って,様々な種類のディープフェイクを識別する。
我々は,分布外コンテンツに基づくディープフェイク検出のための新しいマルチモーダル・ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-11-29T08:29:25Z) - Understanding Audiovisual Deepfake Detection: Techniques, Challenges, Human Factors and Perceptual Insights [49.81915942821647]
ディープラーニングは様々な分野に適用され、ディープフェイク検出への影響は例外ではない。
ディープフェイク(英: Deepfakes)は、政治的偽造、フィッシング、スランダリング、偽情報の拡散に偽装的に使用できる、偽物だが現実的な合成コンテンツである。
本稿では,ディープフェイク検出戦略の有効性を改善し,サイバーセキュリティとメディアの整合性に関する今後の研究を導くことを目的とする。
論文 参考訳(メタデータ) (2024-11-12T09:02:11Z) - Deep Learning Technology for Face Forgery Detection: A Survey [17.519617618071003]
ディープラーニングにより、高忠実度顔画像やビデオの作成や操作が可能になった。
この技術はディープフェイクとしても知られ、劇的な進歩を遂げ、ソーシャルメディアで人気を博している。
ディープフェイクのリスクを低減するため、強力な偽造検出方法を開発することが望ましい。
論文 参考訳(メタデータ) (2024-09-22T01:42:01Z) - Deepfake Media Forensics: State of the Art and Challenges Ahead [51.33414186878676]
AIが生成する合成メディア、別名Deepfakesは、エンターテイメントからサイバーセキュリティまで、多くの領域に影響を与えている。
ディープフェイク検出は、微妙な矛盾やアーティファクトを機械学習技術で識別することに焦点を当て、研究の不可欠な領域となっている。
本稿では,これらの課題に対処する主要なアルゴリズムについて,その利点,限界,今後の展望について検討する。
論文 参考訳(メタデータ) (2024-08-01T08:57:47Z) - Linguistic Profiling of Deepfakes: An Open Database for Next-Generation
Deepfake Detection [40.20982463380279]
本稿では,Deepfake データベース (DFLIP-3K) を提案する。
約3K生成モデルから約300Kの多様なディープフェイクサンプルが含まれており、この文献で最も多くのディープフェイクモデルがある。
この2つの特徴により、DFLIP-3Kはディープフェイクの言語プロファイリングの進歩を促進するベンチマークを開発することができる。
論文 参考訳(メタデータ) (2024-01-04T16:19:52Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Leveraging Deep Learning Approaches for Deepfake Detection: A Review [0.0]
ディープフェイク(Deepfakes)は、AIによって生成されたメディアであり、実際のメディアから切り離すことが難しい。
本稿では,コスト効率のよいモデルを実現するために,様々な手法を検討することを目的とする。
論文 参考訳(メタデータ) (2023-04-04T16:04:42Z) - A Continual Deepfake Detection Benchmark: Dataset, Methods, and
Essentials [97.69553832500547]
本稿では, 既知の生成モデルと未知の生成モデルの両方から, 新たなディープフェイク集合に対する連続的なディープフェイク検出ベンチマーク(CDDB)を提案する。
本研究では,連続的なディープラーニング検出問題に対して,連続的な視覚認識で一般的に使用される多クラス漸進学習手法を適応するために,複数のアプローチを利用する。
論文 参考訳(メタデータ) (2022-05-11T13:07:19Z) - DeepFake Detection with Inconsistent Head Poses: Reproducibility and
Analysis [0.0]
本稿では,ヘッドポーズ推定に基づく既存のDeepFake検出手法について分析する。
以上の結果から,DeepFake検出のためのアートパフォーマンスに対する現在の文献の認識を正すことができた。
論文 参考訳(メタデータ) (2021-08-28T22:56:09Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [82.42495493102805]
我々は,インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介した。
既存のWildDeepfakeデータセットと我々のWildDeepfakeデータセットのベースライン検出ネットワークを体系的に評価し、WildDeepfakeが実際により困難なデータセットであることを示す。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。