論文の概要: Seeing Through the Blur: Unlocking Defocus Maps for Deepfake Detection
- arxiv url: http://arxiv.org/abs/2509.23289v1
- Date: Sat, 27 Sep 2025 13:02:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.142343
- Title: Seeing Through the Blur: Unlocking Defocus Maps for Deepfake Detection
- Title(参考訳): ディープフェイク検出のためのデフォーカスマップのロック解除
- Authors: Minsun Jeon, Simon S. Woo,
- Abstract要約: 生成AIは、フォトリアリスティックな合成画像の大量生成を可能にし、本物と制作されたビジュアルコンテンツの境界を曖昧にした。
本稿では,物理的に解釈可能なディープフェイク検出フレームワークを提案する。
我々は,デフォーカスに基づく検出パイプラインと解釈可能性ツールを,メディア法医学における現在進行中の研究に有意義に貢献することを目的としている。
- 参考スコア(独自算出の注目度): 27.079338164502634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid advancement of generative AI has enabled the mass production of photorealistic synthetic images, blurring the boundary between authentic and fabricated visual content. This challenge is particularly evident in deepfake scenarios involving facial manipulation, but also extends to broader AI-generated content (AIGC) cases involving fully synthesized scenes. As such content becomes increasingly difficult to distinguish from reality, the integrity of visual media is under threat. To address this issue, we propose a physically interpretable deepfake detection framework and demonstrate that defocus blur can serve as an effective forensic signal. Defocus blur is a depth-dependent optical phenomenon that naturally occurs in camera-captured images due to lens focus and scene geometry. In contrast, synthetic images often lack realistic depth-of-field (DoF) characteristics. To capture these discrepancies, we construct a defocus blur map and use it as a discriminative feature for detecting manipulated content. Unlike RGB textures or frequency-domain signals, defocus blur arises universally from optical imaging principles and encodes physical scene structure. This makes it a robust and generalizable forensic cue. Our approach is supported by three in-depth feature analyses, and experimental results confirm that defocus blur provides a reliable and interpretable cue for identifying synthetic images. We aim for our defocus-based detection pipeline and interpretability tools to contribute meaningfully to ongoing research in media forensics. The implementation is publicly available at: https://github.com/irissun9602/Defocus-Deepfake-Detection
- Abstract(参考訳): 生成AIの急速な進歩により、フォトリアリスティック合成画像の大量生産が可能となり、本物と制作された視覚コンテンツの境界が曖昧になった。
この課題は、顔の操作を含むディープフェイクシナリオでは特に顕著だが、完全に合成されたシーンを含むAIGC(AIGC)ケースにも拡張されている。
このようなコンテンツは現実と区別するのがますます難しくなっているため、ビジュアルメディアの完全性は脅威にさらされている。
この問題に対処するために、物理的に解釈可能なディープフェイク検出フレームワークを提案し、デフォーカスブラーが効果的な法医学的信号として機能することを実証する。
Defocus blur(デフォーカスぼけ)は、レンズ焦点とシーン幾何学により、カメラが捉えた画像に自然に発生する、深度に依存した光学現象である。
対照的に、合成画像は現実的な深度(DoF)特性を欠いていることが多い。
これらの不一致を捉えるために,デフォーカスのぼかしマップを構築し,操作内容を検出するための識別的特徴として利用する。
RGBテクスチャや周波数領域信号とは異なり、デフォーカスブラーは光学画像の原理から普遍的に発生し、物理的シーン構造を符号化する。
これにより、堅牢で一般化可能な法医学的キューとなる。
提案手法は,3つの詳細な特徴分析によって支持され,実験結果から,デフォーカスブラーが合成画像の識別に信頼性があり,解釈可能な手がかりとなることが確認された。
我々は,デフォーカスに基づく検出パイプラインと解釈可能性ツールを,メディア法医学における現在進行中の研究に有意義に貢献することを目的としている。
実装は、https://github.com/irissun9602/Defocus-Deepfake-Detectionで公開されている。
関連論文リスト
- Unmasking Facial DeepFakes: A Robust Multiview Detection Framework for Natural Images [1.5049442691806052]
顔の特徴を複数のレベルで分析することで、ディープフェイク検出を強化するマルチビューアーキテクチャを提案する。
提案手法は,3つの特殊エンコーダ,境界不整合を検出するグローバルビューエンコーダ,テクスチャと色調を解析する中間ビューエンコーダ,表情領域の歪みを捉えるローカルビューエンコーダを統合した。
これらのエンコーダから特徴を融合させることにより、難易度の高いポーズや照明条件下であっても、操作された画像の検出において優れた性能が得られる。
論文 参考訳(メタデータ) (2025-10-17T12:16:04Z) - Fine-grained Defocus Blur Control for Generative Image Models [66.30016220484394]
現在のテキストと画像の拡散モデルは、多様な高品質な画像を生成するのに優れている。
本稿では,カメラメタデータを活用した新しいテキスト・画像拡散フレームワークを提案する。
我々のモデルは、描写されたシーンを変更することなく、より優れたきめ細かい制御を可能にする。
論文 参考訳(メタデータ) (2025-10-07T17:59:15Z) - Dark Channel-Assisted Depth-from-Defocus from a Single Image [4.005483185111993]
暗いチャネルを補完的なキューとして用いた1つのデフォーカスブルー画像からシーン深度を推定する。
本手法は,局所的なデフォーカスのぼかしとコントラストの変動を深度的手法として用いて,シーン構造の推定を改善する。
論文 参考訳(メタデータ) (2025-06-07T03:49:26Z) - Deepfake detection by exploiting surface anomalies: the SurFake approach [29.088218634944116]
本稿では, ディープフェイク生成が, 買収時のシーン全体の特性に与える影響について検討する。
画像に描かれた表面の特性を解析することにより、深度検出のためにCNNを訓練するのに使用できる記述子を得ることができる。
論文 参考訳(メタデータ) (2023-10-31T16:54:14Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - Fully Self-Supervised Depth Estimation from Defocus Clue [79.63579768496159]
スパース焦点スタックから深度を純粋に推定する自己教師型フレームワークを提案する。
筆者らのフレームワークは,深度とAIF画像の接地構造の必要性を回避し,より優れた予測を得られることを示す。
論文 参考訳(メタデータ) (2023-03-19T19:59:48Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - Learning to Deblur using Light Field Generated and Real Defocus Images [4.926805108788465]
デフォーカス・デブロワーリングは、デフォーカス・ボケの性質が空間的に変化するため、困難な作業である。
本稿では,光の強度を活用し,光源の欠点を克服する新しいディープデフォーカス・デブロアリング・ネットワークを提案する。
論文 参考訳(メタデータ) (2022-04-01T11:35:51Z) - Onfocus Detection: Identifying Individual-Camera Eye Contact from
Unconstrained Images [81.64699115587167]
Onfocus Detectionは、カメラが捉えた個人の焦点がカメラにあるかどうかを特定することを目的としている。
OnFocus Detection In the Wild (OFDIW) と呼ばれる大規模なオンフォーカス検出データセットを構築しました。
本研究では,視線干渉推論ネットワーク (ECIIN) を用いた眼球深度検出モデルを提案する。
論文 参考訳(メタデータ) (2021-03-29T03:29:09Z) - Deep Autofocus for Synthetic Aperture Sonar [28.306713374371814]
本稿では,機械学習,特にディープラーニングがオートフォーカス問題に対処する可能性を示す。
我々は、Deep Autofocusと呼ばれるディープネットワークを用いて、自己教師型位相誤差推定タスクとして問題を定式化する。
以上の結果から,Deep Autofocusは,ベンチマーク反復手法に劣らず,計算コストが大幅に低い画像を生成することができることを示した。
論文 参考訳(メタデータ) (2020-10-29T15:31:15Z) - Focus on defocus: bridging the synthetic to real domain gap for depth
estimation [9.023847175654602]
我々は、ドメイン不変デフォーカスブラーを直接監督として利用することで、合成現実のドメインギャップを埋める問題に取り組む。
我々は、焦点の異なる画像の違いからネットワークが学習することを奨励する置換不変畳み込みニューラルネットワークを使用することで、デフォーカスの手がかりを活用する。
我々は、合成データに基づいてモデルを完全にトレーニングし、それを広範囲の現実世界の画像に直接適用することができる。
論文 参考訳(メタデータ) (2020-05-19T17:52:37Z) - Rapid Whole Slide Imaging via Learning-based Two-shot Virtual
Autofocusing [57.90239401665367]
ホイルスライドイメージング(WSI)は、デジタル病理の新たな技術である。
本稿では,リフォーカスを行うための機械的調整に依存しないテキスト仮想オートフォーカスの概念を提案する。
論文 参考訳(メタデータ) (2020-03-14T13:40:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。