論文の概要: Through the Lens: Benchmarking Deepfake Detectors Against Moiré-Induced Distortions
- arxiv url: http://arxiv.org/abs/2510.23225v1
- Date: Mon, 27 Oct 2025 11:23:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.534396
- Title: Through the Lens: Benchmarking Deepfake Detectors Against Moiré-Induced Distortions
- Title(参考訳): ディープフェイク・ディテクターとモアレ・インダストリアル・インダストリアル・インダストリアル・インダストリアル(動画あり)
- Authors: Razaib Tariq, Minji Heo, Simon S. Woo, Shahroz Tariq,
- Abstract要約: 本研究は,モイアの映像における最先端のディープフェイク検出器を系統的に評価する。
以上の結果から,モイアの人工物は25.4%の劣化率を示し,合成されたモイアのパターンは21.4%の精度低下を招いた。
- 参考スコア(独自算出の注目度): 27.4028356505804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deepfake detection remains a pressing challenge, particularly in real-world settings where smartphone-captured media from digital screens often introduces Moir\'e artifacts that can distort detection outcomes. This study systematically evaluates state-of-the-art (SOTA) deepfake detectors on Moir\'e-affected videos, an issue that has received little attention. We collected a dataset of 12,832 videos, spanning 35.64 hours, from the Celeb-DF, DFD, DFDC, UADFV, and FF++ datasets, capturing footage under diverse real-world conditions, including varying screens, smartphones, lighting setups, and camera angles. To further examine the influence of Moir\'e patterns on deepfake detection, we conducted additional experiments using our DeepMoir\'eFake, referred to as (DMF) dataset and two synthetic Moir\'e generation techniques. Across 15 top-performing detectors, our results show that Moir\'e artifacts degrade performance by as much as 25.4%, while synthetically generated Moir\'e patterns lead to a 21.4% drop in accuracy. Surprisingly, demoir\'eing methods, intended as a mitigation approach, instead worsened the problem, reducing accuracy by up to 17.2%. These findings underscore the urgent need for detection models that can robustly handle Moir\'e distortions alongside other realworld challenges, such as compression, sharpening, and blurring. By introducing the DMF dataset, we aim to drive future research toward closing the gap between controlled experiments and practical deepfake detection.
- Abstract(参考訳): ディープフェイク検出は、特にデジタルスクリーンからスマートフォンにキャプチャされたメディアが検出結果を歪ませることのできるMoir\'eアーティファクトをしばしば導入する現実の環境では、依然として困難な課題である。
本研究は,Moir\'eの影響を受けないビデオ上で,最先端(SOTA)ディープフェイク検出器をシステマティックに評価する。
我々はCeleb-DF、DFD、DFDC、UADFV、FF++のデータセットから35.64時間にわたる12,832本のビデオのデータセットを収集し、さまざまなスクリーン、スマートフォン、照明設定、カメラアングルを含むさまざまな現実世界の条件下での映像のキャプチャを行った。
さらに,DeepMoir\'eFake(DMF)データセットと2つの合成Moir\'e生成技術を用いて,DeepMoir\'eパターンがディープフェイク検出に与える影響について検討した。
15個のトップパフォーマンス検出器で、Moir\eアーティファクトは最大25.4%、合成生成されたMoir\eパターンは21.4%の精度で性能が低下した。
驚いたことに、軽減アプローチを意図したdemoir\'eing法は、代わりに問題を悪化させ、精度を最大17.2%まで下げた。
これらの結果は、圧縮、シャープニング、ぼやけなどの他の現実世界の課題と並行して、モワールの歪みを堅牢に処理できる検出モデルに対する緊急の必要性を浮き彫りにしている。
DMFデータセットを導入することで、制御された実験と実用的なディープフェイク検出のギャップを埋めるための今後の研究を進めることを目指している。
関連論文リスト
- Practical Manipulation Model for Robust Deepfake Detection [55.2480439325792]
画像超解像領域において,より現実的な劣化モデルを構築した。
擬似フェイクの空間を、ポアソンブレンディング、より多様なマスク、ジェネレータアーティファクト、およびイントラクタを用いて拡張する。
DFDCデータセットとDFDCPデータセットでは、それぞれ3.51%$と6.21%$AUCが明らかに増加した。
論文 参考訳(メタデータ) (2025-06-05T15:06:16Z) - TT-DF: A Large-Scale Diffusion-Based Dataset and Benchmark for Human Body Forgery Detection [9.89697259708197]
そこで本研究では,1,378,857個の合成フレームを備えた6,120本の鍛造ビデオを含む,大規模な拡散型フォージェリーデータセットを提案する。
目的は、可能な限り網羅的に、潜在的に見えない偽造データをシミュレートすることであり、TT-DFのベンチマークも実施することである。
実験の結果,TOF-NetはTT-DFで良好な性能を示し,現在最先端の顔偽造検出モデルより優れていることがわかった。
論文 参考訳(メタデータ) (2025-05-13T11:01:25Z) - WWW: Where, Which and Whatever Enhancing Interpretability in Multimodal Deepfake Detection [10.770226158965686]
マルチモーダルディープフェイク検出のための最新のベンチマークでは、様々な生成手法を用いてフレーム全体を操作している。
これらのベンチマークは、現実世界のシナリオで提示されるフレーム単位の変更による動的ディープフェイク攻撃を検出するのに苦労している。
ビデオとオーディオの両方で操作されたセグメントを特定することを目的とした新しいクリップレベル評価ベンチマークであるFakeMixを紹介する。
論文 参考訳(メタデータ) (2024-08-06T04:44:10Z) - Exploring the Impact of Moire Pattern on Deepfake Detectors [23.343014841799167]
デジタルスクリーンから撮影したディープフェイク映像が検出器性能に与える影響について検討した。
その結果,検出器の精度は著しく低下し,平均68%を超えなかった。
このことは、現実世界のディープフェイク検出シナリオにおいて、Moirのパターン問題に対処する重要な必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-07-15T02:39:24Z) - Masked Conditional Diffusion Model for Enhancing Deepfake Detection [20.018495944984355]
本研究では,深度検出のための仮設条件拡散モデル (MCDM) を提案する。
マスクされたプリスタン顔から様々な偽造顔を生成し、ディープフェイク検出モデルにジェネリックでロバストな表現を学習するよう促す。
論文 参考訳(メタデータ) (2024-02-01T12:06:55Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - M2TR: Multi-modal Multi-scale Transformers for Deepfake Detection [74.19291916812921]
Deepfake技術によって生成された鍛造画像は、デジタル情報の信頼性に深刻な脅威をもたらします。
本稿では,Deepfake検出のための微妙な操作アーチファクトを異なるスケールで捉えることを目的とする。
最先端の顔スワッピングと顔の再現方法によって生成された4000のDeepFakeビデオで構成される高品質のDeepFakeデータセットSR-DFを紹介します。
論文 参考訳(メタデータ) (2021-04-20T05:43:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。