論文の概要: End4: End-to-end Denoising Diffusion for Diffusion-Based Inpainting Detection
- arxiv url: http://arxiv.org/abs/2509.13214v1
- Date: Tue, 16 Sep 2025 16:19:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:53.168875
- Title: End4: End-to-end Denoising Diffusion for Diffusion-Based Inpainting Detection
- Title(参考訳): End4:Diffusion-based Inpainting Detectionのためのエンド・ツー・エンド拡散法
- Authors: Fei Wang, Xuecheng Wu, Zheng Zhang, Danlei Huang, Yuheng Huang, BoWang,
- Abstract要約: 本稿では,エンド・ツー・エンドの復調拡散(End4)に基づく新しい検出手法を提案する。
コードとデータセットはまもなくリリースされます。
- 参考スコア(独自算出の注目度): 12.08462768398949
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The powerful generative capabilities of diffusion models have significantly advanced the field of image synthesis, enhancing both full image generation and inpainting-based image editing. Despite their remarkable advancements, diffusion models also raise concerns about potential misuse for malicious purposes. However, existing approaches struggle to identify images generated by diffusion-based inpainting models, even when similar inpainted images are included in their training data. To address this challenge, we propose a novel detection method based on End-to-end denoising diffusion (End4). Specifically, End4 designs a denoising reconstruction model to improve the alignment degree between the latent spaces of the reconstruction and detection processes, thus reconstructing features that are more conducive to detection. Meanwhile, it leverages a Scale-aware Pyramid-like Fusion Module (SPFM) that refines local image features under the guidance of attention pyramid layers at different scales, enhancing feature discriminability. Additionally, to evaluate detection performance on inpainted images, we establish a comprehensive benchmark comprising images generated from five distinct masked regions. Extensive experiments demonstrate that our End4 effectively generalizes to unseen masking patterns and remains robust under various perturbations. Our code and dataset will be released soon.
- Abstract(参考訳): 拡散モデルの強力な生成能力は、画像合成の分野を大幅に進歩させ、フル画像生成とインパインティングベースの画像編集の両方を強化した。
その顕著な進歩にもかかわらず、拡散モデルは悪意のある目的のために潜在的に誤用を懸念する。
しかし、既存のアプローチでは、トレーニングデータに類似のインペイント画像が含まれている場合でも、拡散ベースのインペイントモデルによって生成された画像を特定するのに苦労している。
この課題に対処するため,エンド・ツー・エンド・エンド・デノゲーション拡散(End4)に基づく新しい検出手法を提案する。
具体的には、End4は、再構成と検出プロセスの潜在空間間のアライメント度を改善するために、デノナイズドリコンストラクションモデルを設計し、より検出しやすい特徴を再構成する。
一方、SPFM(Scale-aware Pyramid-like Fusion Module)は、異なるスケールで注目ピラミッド層を誘導して局所的な特徴を洗練し、特徴の識別性を向上する。
さらに,5つの異なるマスキング領域から生成された画像からなる総合的なベンチマークを作成した。
広範囲にわたる実験により、私たちのEnd4は、目に見えないマスキングパターンに効果的に一般化し、様々な摂動の下で頑健であることが示された。
コードとデータセットはまもなくリリースされます。
関連論文リスト
- LATTE: Latent Trajectory Embedding for Diffusion-Generated Image Detection [11.700935740718675]
LATTE(Latent Trajectory Embedding)は、遅延埋め込みの進化をいくつかの遅延時間ステップでモデル化する、新しいアプローチである。
単一ステップエラーではなく、そのような埋め込みの軌跡をモデル化することにより、LATTEは、生成した画像と実を区別する微妙で差別的なパターンをキャプチャする。
論文 参考訳(メタデータ) (2025-07-03T12:53:47Z) - Explainable Synthetic Image Detection through Diffusion Timestep Ensembling [30.298198387824275]
本稿では,複数の雑音の時間ステップでアンサンブルを訓練することにより,中間雑音画像の特徴を直接活用する合成画像検出手法を提案する。
人間の理解を深めるために,メートル法に基づく説明文生成と改良モジュールを導入する。
本手法は, 正解率98.91%, 正解率95.89%, 正解率95.89%, 正解率98.91%, 正解率95.89%である。
論文 参考訳(メタデータ) (2025-03-08T13:04:20Z) - DiffDoctor: Diagnosing Image Diffusion Models Before Treating [57.82359018425674]
DiffDoctorは2段階のパイプラインで、画像拡散モデルがより少ないアーティファクトを生成するのを支援する。
我々は100万以上の欠陥のある合成画像のデータセットを収集し、効率的なHuman-in-the-loopアノテーションプロセスを構築した。
次に、学習したアーティファクト検出器が第2段階に関与し、ピクセルレベルのフィードバックを提供することで拡散モデルを最適化する。
論文 参考訳(メタデータ) (2025-01-21T18:56:41Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Reconstruct-and-Generate Diffusion Model for Detail-Preserving Image
Denoising [16.43285056788183]
再構成・生成拡散モデル(Reconstruct-and-Generate Diffusion Model, RnG)と呼ばれる新しい手法を提案する。
提案手法は, 再構成型復調ネットワークを利用して, 基礎となるクリーン信号の大半を復元する。
拡散アルゴリズムを用いて残留する高周波の詳細を生成し、視覚的品質を向上させる。
論文 参考訳(メタデータ) (2023-09-19T16:01:20Z) - Gradpaint: Gradient-Guided Inpainting with Diffusion Models [71.47496445507862]
Denoising Diffusion Probabilistic Models (DDPM) は近年,条件付きおよび非条件付き画像生成において顕著な成果を上げている。
我々はGradPaintを紹介し、グローバルな一貫性のあるイメージに向けて世代を操る。
我々は、様々なデータセットで訓練された拡散モデルによく適応し、現在最先端の教師付きおよび教師なしの手法を改善している。
論文 参考訳(メタデータ) (2023-09-18T09:36:24Z) - Steerable Conditional Diffusion for Out-of-Distribution Adaptation in Medical Image Reconstruction [75.91471250967703]
我々は、ステアブル条件拡散と呼ばれる新しいサンプリングフレームワークを導入する。
このフレームワークは、利用可能な測定によって提供される情報のみに基づいて、画像再構成と並行して拡散モデルを適用する。
様々な画像モダリティにまたがるアウト・オブ・ディストリビューション性能の大幅な向上を実現した。
論文 参考訳(メタデータ) (2023-08-28T08:47:06Z) - Diffusion Model for Camouflaged Object Detection [2.592600158870236]
本稿では,拡散型物体検出のための拡散型フレームワーク diffCOD を提案する。
提案手法は,既存の11種類の最先端手法と比較して良好な性能を示す。
論文 参考訳(メタデータ) (2023-08-01T05:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。