論文の概要: MFFI: Multi-Dimensional Face Forgery Image Dataset for Real-World Scenarios
- arxiv url: http://arxiv.org/abs/2509.05592v1
- Date: Sat, 06 Sep 2025 04:36:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.600737
- Title: MFFI: Multi-Dimensional Face Forgery Image Dataset for Real-World Scenarios
- Title(参考訳): MFFI:実世界シナリオのための多次元顔偽画像データセット
- Authors: Changtao Miao, Yi Zhang, Man Luo, Weiwei Feng, Kaiyuan Zheng, Qi Chu, Tao Gong, Jianshu Li, Yunfeng Diao, Wei Zhou, Joey Tianyi Zhou, Xiaoshuai Hao,
- Abstract要約: 実世界のシナリオに適した多次元顔偽画像(textbfMFFI)データセットを提案する。
MFFIは, より広いフォージェリー手法, 2) 潜伏した顔シーン, 3) 多様化された認証データ, 4) マルチレベル劣化操作の4つの戦略次元に基づいてリアリズムを強化する。
ベンチマーク評価の結果、MFFIはシーンの複雑さ、クロスドメインの一般化能力、検出難易度勾配などの観点から、既存の公開データセットよりも優れていた。
- 参考スコア(独自算出の注目度): 56.87612820699948
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Rapid advances in Artificial Intelligence Generated Content (AIGC) have enabled increasingly sophisticated face forgeries, posing a significant threat to social security. However, current Deepfake detection methods are limited by constraints in existing datasets, which lack the diversity necessary in real-world scenarios. Specifically, these data sets fall short in four key areas: unknown of advanced forgery techniques, variability of facial scenes, richness of real data, and degradation of real-world propagation. To address these challenges, we propose the Multi-dimensional Face Forgery Image (\textbf{MFFI}) dataset, tailored for real-world scenarios. MFFI enhances realism based on four strategic dimensions: 1) Wider Forgery Methods; 2) Varied Facial Scenes; 3) Diversified Authentic Data; 4) Multi-level Degradation Operations. MFFI integrates $50$ different forgery methods and contains $1024K$ image samples. Benchmark evaluations show that MFFI outperforms existing public datasets in terms of scene complexity, cross-domain generalization capability, and detection difficulty gradients. These results validate the technical advance and practical utility of MFFI in simulating real-world conditions. The dataset and additional details are publicly available at {https://github.com/inclusionConf/MFFI}.
- Abstract(参考訳): 人工知能生成コンテンツ(AIGC)の急速な進歩は、ますます洗練された顔の偽造を可能にし、社会保障に重大な脅威をもたらしている。
しかし、現在のDeepfake検出方法は、既存のデータセットの制約によって制限されている。
具体的には、これらのデータセットは、高度な偽造技法の未知、顔の変動性、実際のデータの豊かさ、現実世界の伝播の劣化の4つの重要な領域で不足している。
これらの課題に対処するために,実世界のシナリオに適した多次元顔偽画像(\textbf{MFFI})データセットを提案する。
MFFIは4つの戦略次元に基づくリアリズムを強化する。
1) より広範な偽造方法
2)潜伏した顔のシーン
3) 認証データの多様化
4)多段劣化運転
MFFIは50ドルの異なる偽造メソッドを統合し、画像サンプルは1024Kドルである。
ベンチマーク評価の結果、MFFIはシーンの複雑さ、クロスドメインの一般化能力、検出難易度勾配などの観点から、既存の公開データセットよりも優れていた。
これらの結果は,実環境シミュレーションにおけるMFFIの技術的進歩と実用性を検証するものである。
データセットと追加の詳細は、https://github.com/inclusionConf/MFFI}で公開されている。
関連論文リスト
- Real-World Remote Sensing Image Dehazing: Benchmark and Baseline [19.747354924759104]
実世界のリモートセンシングのハージーなイメージペアの不足により、既存の手法は、主に合成データセットに頼らざるを得なくなった。
実世界のハズー画像とデハズー画像のペアを含む最初の大規模データセットであるRRSHID(Real-World Remote Sensing Hazy Image dataset)を紹介する。
そこで本研究では,実世界のRSIDに適した新しいフレームワークMCAF-Netを提案する。
論文 参考訳(メタデータ) (2025-03-23T07:15:46Z) - FFAA: Multimodal Large Language Model based Explainable Open-World Face Forgery Analysis Assistant [59.2438504610849]
FFAA: Face Forgery Analysis Assistant(MLLM)とMIDS(Multi-Awer Intelligent Decision System)について紹介する。
提案手法は,ユーザフレンドリで説明可能な結果を提供するだけでなく,従来の手法に比べて精度と堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-08-19T15:15:20Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Wild Face Anti-Spoofing Challenge 2023: Benchmark and Results [73.98594459933008]
顔認証システム(FAS)は、顔認識システムの完全性を保護するための重要なメカニズムである。
この制限は、公開可能なFASデータセットの不足と多様性の欠如に起因する可能性がある。
制約のない環境で収集された大規模で多様なFASデータセットであるWild Face Anti-Spoofingデータセットを紹介した。
論文 参考訳(メタデータ) (2023-04-12T10:29:42Z) - GLFF: Global and Local Feature Fusion for AI-synthesized Image Detection [29.118321046339656]
画像全体から複数スケールのグローバルな特徴と、AI合成画像検出のための情報パッチからの洗練されたローカル特徴を組み合わせることで、リッチで差別的な表現を学習するフレームワークを提案する。
GLFFは、マルチスケールの意味的特徴を抽出するグローバルブランチと、詳細なローカルアーティファクト抽出のための情報パッチを選択するローカルブランチの2つのブランチから情報を抽出する。
論文 参考訳(メタデータ) (2022-11-16T02:03:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。