論文の概要: Detecting AI-Generated Images via Diffusion Snap-Back Reconstruction: A Forensic Approach
- arxiv url: http://arxiv.org/abs/2511.00352v1
- Date: Sat, 01 Nov 2025 01:35:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.735616
- Title: Detecting AI-Generated Images via Diffusion Snap-Back Reconstruction: A Forensic Approach
- Title(参考訳): 拡散スナップバック再構成によるAI生成画像の検出:法医学的アプローチ
- Authors: Mohd Ruhul Ameen, Akif Islam,
- Abstract要約: 従来のディープフェイク検出方法は、Stable DiffusionやDALL-Eのようなテキストと画像のシステムでは失敗する。
本稿では,多強度画像再構成を応用した拡散型法科学フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid rise of generative diffusion models has made distinguishing authentic visual content from synthetic imagery increasingly challenging. Traditional deepfake detection methods, which rely on frequency or pixel-level artifacts, fail against modern text-to-image systems such as Stable Diffusion and DALL-E that produce photorealistic and artifact-free results. This paper introduces a diffusion-based forensic framework that leverages multi-strength image reconstruction dynamics, termed diffusion snap-back, to identify AI-generated images. By analysing how reconstruction metrics (LPIPS, SSIM, and PSNR) evolve across varying noise strengths, we extract interpretable manifold-based features that differentiate real and synthetic images. Evaluated on a balanced dataset of 4,000 images, our approach achieves 0.993 AUROC under cross-validation and remains robust to common distortions such as compression and noise. Despite using limited data and a single diffusion backbone (Stable Diffusion v1.5), the proposed method demonstrates strong generalization and interpretability, offering a foundation for scalable, model-agnostic synthetic media forensics.
- Abstract(参考訳): 生成拡散モデルの急速な増加により、合成画像と真の視覚内容の区別がますます困難になっている。
周波数やピクセルレベルのアーティファクトに依存する従来のディープフェイク検出法は、フォトリアリスティックでアーティファクトのない結果を生成するスタブルディフュージョンやDALL-Eのような現代のテキスト・ツー・イメージシステムに対して失敗する。
本稿では,拡散スナップバックと呼ばれる多強度画像再構成のダイナミクスを利用して,AI生成画像の同定を行う拡散法科学フレームワークを提案する。
実画像と合成画像とを区別した解釈可能な多様体に基づく特徴を抽出し,LPIPS,SSIM,PSNRの再現性について検討した。
4000枚の画像のバランスの取れたデータセットから評価し, 9993 AUROCをクロスバリデーションで達成し, 圧縮やノイズなどの一般的な歪みに対して頑健である。
限られたデータと単一の拡散バックボーン(Stable Diffusion v1.5)を用いているにもかかわらず、提案手法は強力な一般化と解釈可能性を示し、スケーラブルでモデルに依存しない合成メディア科学の基礎を提供する。
関連論文リスト
- Explainable Synthetic Image Detection through Diffusion Timestep Ensembling [30.298198387824275]
本稿では,複数の雑音の時間ステップでアンサンブルを訓練することにより,中間雑音画像の特徴を直接活用する合成画像検出手法を提案する。
人間の理解を深めるために,メートル法に基づく説明文生成と改良モジュールを導入する。
本手法は, 正解率98.91%, 正解率95.89%, 正解率95.89%, 正解率98.91%, 正解率95.89%である。
論文 参考訳(メタデータ) (2025-03-08T13:04:20Z) - DiffDoctor: Diagnosing Image Diffusion Models Before Treating [57.82359018425674]
DiffDoctorは2段階のパイプラインで、画像拡散モデルがより少ないアーティファクトを生成するのを支援する。
我々は100万以上の欠陥のある合成画像のデータセットを収集し、効率的なHuman-in-the-loopアノテーションプロセスを構築した。
次に、学習したアーティファクト検出器が第2段階に関与し、ピクセルレベルのフィードバックを提供することで拡散モデルを最適化する。
論文 参考訳(メタデータ) (2025-01-21T18:56:41Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Diffusion Reconstruction of Ultrasound Images with Informative
Uncertainty [5.375425938215277]
超音波画像の品質を高めるには、コントラスト、解像度、スペックル保存といった同時的な要因のバランスを取る必要がある。
拡散モデルの進歩を生かしたハイブリッドアプローチを提案する。
シミュレーション,in-vitro,in-vivoデータの総合的な実験を行い,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2023-10-31T16:51:40Z) - Steerable Conditional Diffusion for Out-of-Distribution Adaptation in Medical Image Reconstruction [75.91471250967703]
我々は、ステアブル条件拡散と呼ばれる新しいサンプリングフレームワークを導入する。
このフレームワークは、利用可能な測定によって提供される情報のみに基づいて、画像再構成と並行して拡散モデルを適用する。
様々な画像モダリティにまたがるアウト・オブ・ディストリビューション性能の大幅な向上を実現した。
論文 参考訳(メタデータ) (2023-08-28T08:47:06Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Person Image Synthesis via Denoising Diffusion Model [116.34633988927429]
本研究では,高忠実度人物画像合成に拡散モデルをいかに応用できるかを示す。
2つの大規模ベンチマークとユーザスタディの結果は、挑戦的なシナリオ下で提案したアプローチのフォトリアリズムを実証している。
論文 参考訳(メタデータ) (2022-11-22T18:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。