論文の概要: FIND: A Simple yet Effective Baseline for Diffusion-Generated Image Detection
- arxiv url: http://arxiv.org/abs/2603.14220v1
- Date: Sun, 15 Mar 2026 04:49:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.680106
- Title: FIND: A Simple yet Effective Baseline for Diffusion-Generated Image Detection
- Title(参考訳): FIND:拡散生成画像検出のためのシンプルで効果的なベースライン
- Authors: Jie Li, Yingying Feng, Chi Xie, Jie Hu, Lei Tan, Jiayi Ji,
- Abstract要約: 実際の画像は合成画像よりもガウス分布に適合することが難しい。
本稿では,単純なバイナリ分類器のみを必要とする新しい手法であるFIND(Forgery Identification via Noise disturbance)を提案する。
FINDはGenImageベンチマークで11.7%向上し、既存のメソッドよりも126倍高速である。
- 参考スコア(独自算出の注目度): 32.11320589253777
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The remarkable realism of images generated by diffusion models poses critical detection challenges. Current methods utilize reconstruction error as a discriminative feature, exploiting the observation that real images exhibit higher reconstruction errors when processed through diffusion models. However, these approaches require costly reconstruction computations and depend on specific diffusion models, making their performance highly model-dependent. We identify a fundamental difference: real images are more difficult to fit with Gaussian distributions compared to synthetic ones. In this paper, we propose Forgery Identification via Noise Disturbance (FIND), a novel method that requires only a simple binary classifier. It eliminates reconstruction by directly targeting the core distributional difference between real and synthetic images. Our key operation is to add Gaussian noise to real images during training and label these noisy versions as synthetic. This step allows the classifier to focus on the statistical patterns that distinguish real from synthetic images. We theoretically prove that the noise-augmented real images resemble diffusion-generated images in their ease of Gaussian fitting. Furthermore, simply by adding noise, they still retain visual similarity to the original images, highlighting the most discriminative distribution-related features. The proposed FIND improves performance by 11.7% on the GenImage benchmark while running 126x faster than existing methods. By removing the need for auxiliary diffusion models and reconstruction, it offers a practical, efficient, and generalizable way to detect diffusion-generated content.
- Abstract(参考訳): 拡散モデルによって生成された画像の顕著なリアリズムは、重要な検出課題を生じさせる。
現在の手法では, 拡散モデルを用いて処理した場合に, 実画像がより高い再構成誤差を示すという観察を活かして, 再構成誤差を識別的特徴として利用している。
しかし、これらの手法はコストのかかる再構成計算を必要とし、特定の拡散モデルに依存するため、その性能はモデルに依存している。
実際の画像は合成画像に比べてガウス分布に適合することが困難である。
本稿では,単純なバイナリ分類器のみを必要とする新しい手法であるFIND(Forgery Identification via Noise disturbance)を提案する。
実画像と合成画像のコア分布差を直接ターゲットにすることで、再構成をなくす。
私たちの重要な操作は、トレーニング中にガウスノイズを実画像に追加し、これらのノイズバージョンを合成としてラベル付けすることです。
このステップにより、分類器は合成画像と現実を区別する統計パターンに焦点を合わせることができる。
理論的には、ノイズ増大実画像はガウスフィッティングの容易さで拡散生成画像に類似していることを証明する。
さらに、単にノイズを加えるだけで、元の画像と視覚的類似性が保たれ、最も識別性の高い分布関連の特徴が強調される。
提案されたFINDは、GenImageベンチマークで11.7%向上し、既存のメソッドよりも126倍高速である。
補助拡散モデルや再構成の必要性を取り除くことで、拡散生成コンテンツを検出する実用的で効率的で一般化可能な方法を提供する。
関連論文リスト
- Detecting AI-Generated Images via Diffusion Snap-Back Reconstruction: A Forensic Approach [0.0]
従来のディープフェイク検出方法は、Stable DiffusionやDALL-Eのようなテキストと画像のシステムでは失敗する。
本稿では,多強度画像再構成を応用した拡散型法科学フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-01T01:35:54Z) - Who Made This? Fake Detection and Source Attribution with Diffusion Features [0.15293427903448018]
FRIDA(Deepfake Detection and Source Attribution)というフレームワークを紹介した。
コンパクトなニューラルモデルは正確なソース属性を可能にする。
その結果、拡散表現は本質的にジェネレータ固有のパターンを符号化していることがわかった。
論文 参考訳(メタデータ) (2025-10-31T16:27:34Z) - LATTE: Latent Trajectory Embedding for Diffusion-Generated Image Detection [13.576997219135992]
LATent Trajectory Embeddingは、複数の認知ステップにまたがる遅延埋め込みの進化をモデル化する新しいアプローチである。
GenImage、Chameleon、Diffusion Forensicsといったいくつかのベンチマークの実験は、LATTEが優れたパフォーマンスを達成することを示している。
論文 参考訳(メタデータ) (2025-07-03T12:53:47Z) - VIPaint: Image Inpainting with Pre-Trained Diffusion Models via Variational Inference [5.852077003870417]
我々のVIPaint法は,提案手法の妥当性と多様性の両方において,従来の手法よりも優れていることを示す。
我々のVIPaint法は,提案手法の妥当性と多様性の両方において,従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-11-28T05:35:36Z) - Iterative Token Evaluation and Refinement for Real-World
Super-Resolution [77.74289677520508]
実世界の画像超解像(RWSR)は、低品質(LQ)画像が複雑で未同定の劣化を起こすため、長年にわたる問題である。
本稿では,RWSRのための反復的トークン評価・リファインメントフレームワークを提案する。
ITERはGAN(Generative Adversarial Networks)よりも訓練が容易であり,連続拡散モデルよりも効率的であることを示す。
論文 参考訳(メタデータ) (2023-12-09T17:07:32Z) - ExposureDiffusion: Learning to Expose for Low-light Image Enhancement [87.08496758469835]
この研究は、拡散モデルと物理ベースの露光モデルとをシームレスに統合することで、この問題に対処する。
提案手法は,バニラ拡散モデルと比較して性能が大幅に向上し,推論時間を短縮する。
提案するフレームワークは、実際のペア付きデータセット、SOTAノイズモデル、および異なるバックボーンネットワークの両方で動作する。
論文 参考訳(メタデータ) (2023-07-15T04:48:35Z) - Your Diffusion Model is Secretly a Zero-Shot Classifier [90.40799216880342]
大規模テキスト・画像拡散モデルからの密度推定をゼロショット分類に活用できることを示す。
分類に対する我々の生成的アプローチは、様々なベンチマークで強い結果が得られる。
我々の結果は、下流タスクにおける差別的モデルよりも生成的な利用に向けての一歩である。
論文 参考訳(メタデータ) (2023-03-28T17:59:56Z) - DIRE for Diffusion-Generated Image Detection [128.95822613047298]
拡散再構成誤り(DIRE)という新しい表現を提案する。
DIREは、予め訓練された拡散モデルにより、入力画像とその再構成画像間の誤差を測定する。
DIREは生成されたイメージと実際のイメージを区別するためのブリッジとして機能する、というヒントを提供する。
論文 参考訳(メタデータ) (2023-03-16T13:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。