論文の概要: Seeing Through the Blur: Unlocking Defocus Maps for Deepfake Detection
- arxiv url: http://arxiv.org/abs/2509.23289v1
- Date: Sat, 27 Sep 2025 13:02:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.142343
- Title: Seeing Through the Blur: Unlocking Defocus Maps for Deepfake Detection
- Title(参考訳): ディープフェイク検出のためのデフォーカスマップのロック解除
- Authors: Minsun Jeon, Simon S. Woo,
- Abstract要約: 生成AIは、フォトリアリスティックな合成画像の大量生成を可能にし、本物と制作されたビジュアルコンテンツの境界を曖昧にした。
本稿では,物理的に解釈可能なディープフェイク検出フレームワークを提案する。
我々は,デフォーカスに基づく検出パイプラインと解釈可能性ツールを,メディア法医学における現在進行中の研究に有意義に貢献することを目的としている。
- 参考スコア(独自算出の注目度): 27.079338164502634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid advancement of generative AI has enabled the mass production of photorealistic synthetic images, blurring the boundary between authentic and fabricated visual content. This challenge is particularly evident in deepfake scenarios involving facial manipulation, but also extends to broader AI-generated content (AIGC) cases involving fully synthesized scenes. As such content becomes increasingly difficult to distinguish from reality, the integrity of visual media is under threat. To address this issue, we propose a physically interpretable deepfake detection framework and demonstrate that defocus blur can serve as an effective forensic signal. Defocus blur is a depth-dependent optical phenomenon that naturally occurs in camera-captured images due to lens focus and scene geometry. In contrast, synthetic images often lack realistic depth-of-field (DoF) characteristics. To capture these discrepancies, we construct a defocus blur map and use it as a discriminative feature for detecting manipulated content. Unlike RGB textures or frequency-domain signals, defocus blur arises universally from optical imaging principles and encodes physical scene structure. This makes it a robust and generalizable forensic cue. Our approach is supported by three in-depth feature analyses, and experimental results confirm that defocus blur provides a reliable and interpretable cue for identifying synthetic images. We aim for our defocus-based detection pipeline and interpretability tools to contribute meaningfully to ongoing research in media forensics. The implementation is publicly available at: https://github.com/irissun9602/Defocus-Deepfake-Detection
- Abstract(参考訳): 生成AIの急速な進歩により、フォトリアリスティック合成画像の大量生産が可能となり、本物と制作された視覚コンテンツの境界が曖昧になった。
この課題は、顔の操作を含むディープフェイクシナリオでは特に顕著だが、完全に合成されたシーンを含むAIGC(AIGC)ケースにも拡張されている。
このようなコンテンツは現実と区別するのがますます難しくなっているため、ビジュアルメディアの完全性は脅威にさらされている。
この問題に対処するために、物理的に解釈可能なディープフェイク検出フレームワークを提案し、デフォーカスブラーが効果的な法医学的信号として機能することを実証する。
Defocus blur(デフォーカスぼけ)は、レンズ焦点とシーン幾何学により、カメラが捉えた画像に自然に発生する、深度に依存した光学現象である。
対照的に、合成画像は現実的な深度(DoF)特性を欠いていることが多い。
これらの不一致を捉えるために,デフォーカスのぼかしマップを構築し,操作内容を検出するための識別的特徴として利用する。
RGBテクスチャや周波数領域信号とは異なり、デフォーカスブラーは光学画像の原理から普遍的に発生し、物理的シーン構造を符号化する。
これにより、堅牢で一般化可能な法医学的キューとなる。
提案手法は,3つの詳細な特徴分析によって支持され,実験結果から,デフォーカスブラーが合成画像の識別に信頼性があり,解釈可能な手がかりとなることが確認された。
我々は,デフォーカスに基づく検出パイプラインと解釈可能性ツールを,メディア法医学における現在進行中の研究に有意義に貢献することを目的としている。
実装は、https://github.com/irissun9602/Defocus-Deepfake-Detectionで公開されている。
関連論文リスト
- Dark Channel-Assisted Depth-from-Defocus from a Single Image [4.005483185111993]
暗いチャネルを補完的なキューとして用いた1つのデフォーカスブルー画像からシーン深度を推定する。
本手法は,局所的なデフォーカスのぼかしとコントラストの変動を深度的手法として用いて,シーン構造の推定を改善する。
論文 参考訳(メタデータ) (2025-06-07T03:49:26Z) - Deepfake detection by exploiting surface anomalies: the SurFake approach [29.088218634944116]
本稿では, ディープフェイク生成が, 買収時のシーン全体の特性に与える影響について検討する。
画像に描かれた表面の特性を解析することにより、深度検出のためにCNNを訓練するのに使用できる記述子を得ることができる。
論文 参考訳(メタデータ) (2023-10-31T16:54:14Z) - Fully Self-Supervised Depth Estimation from Defocus Clue [79.63579768496159]
スパース焦点スタックから深度を純粋に推定する自己教師型フレームワークを提案する。
筆者らのフレームワークは,深度とAIF画像の接地構造の必要性を回避し,より優れた予測を得られることを示す。
論文 参考訳(メタデータ) (2023-03-19T19:59:48Z) - Onfocus Detection: Identifying Individual-Camera Eye Contact from
Unconstrained Images [81.64699115587167]
Onfocus Detectionは、カメラが捉えた個人の焦点がカメラにあるかどうかを特定することを目的としている。
OnFocus Detection In the Wild (OFDIW) と呼ばれる大規模なオンフォーカス検出データセットを構築しました。
本研究では,視線干渉推論ネットワーク (ECIIN) を用いた眼球深度検出モデルを提案する。
論文 参考訳(メタデータ) (2021-03-29T03:29:09Z) - Deep Autofocus for Synthetic Aperture Sonar [28.306713374371814]
本稿では,機械学習,特にディープラーニングがオートフォーカス問題に対処する可能性を示す。
我々は、Deep Autofocusと呼ばれるディープネットワークを用いて、自己教師型位相誤差推定タスクとして問題を定式化する。
以上の結果から,Deep Autofocusは,ベンチマーク反復手法に劣らず,計算コストが大幅に低い画像を生成することができることを示した。
論文 参考訳(メタデータ) (2020-10-29T15:31:15Z) - Focus on defocus: bridging the synthetic to real domain gap for depth
estimation [9.023847175654602]
我々は、ドメイン不変デフォーカスブラーを直接監督として利用することで、合成現実のドメインギャップを埋める問題に取り組む。
我々は、焦点の異なる画像の違いからネットワークが学習することを奨励する置換不変畳み込みニューラルネットワークを使用することで、デフォーカスの手がかりを活用する。
我々は、合成データに基づいてモデルを完全にトレーニングし、それを広範囲の現実世界の画像に直接適用することができる。
論文 参考訳(メタデータ) (2020-05-19T17:52:37Z) - Rapid Whole Slide Imaging via Learning-based Two-shot Virtual
Autofocusing [57.90239401665367]
ホイルスライドイメージング(WSI)は、デジタル病理の新たな技術である。
本稿では,リフォーカスを行うための機械的調整に依存しないテキスト仮想オートフォーカスの概念を提案する。
論文 参考訳(メタデータ) (2020-03-14T13:40:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。