論文の概要: DIRE for Diffusion-Generated Image Detection
- arxiv url: http://arxiv.org/abs/2303.09295v1
- Date: Thu, 16 Mar 2023 13:15:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 15:31:52.646859
- Title: DIRE for Diffusion-Generated Image Detection
- Title(参考訳): 拡散生成画像検出用ダイア
- Authors: Zhendong Wang, Jianmin Bao, Wengang Zhou, Weilun Wang, Hezhen Hu, Hong
Chen, Houqiang Li
- Abstract要約: 拡散再構成誤り(DIRE)という新しい表現を提案する。
DIREは、予め訓練された拡散モデルにより、入力画像とその再構成画像間の誤差を測定する。
DIREは生成されたイメージと実際のイメージを区別するためのブリッジとして機能する、というヒントを提供する。
- 参考スコア(独自算出の注目度): 128.95822613047298
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models have shown remarkable success in visual synthesis, but have
also raised concerns about potential abuse for malicious purposes. In this
paper, we seek to build a detector for telling apart real images from
diffusion-generated images. We find that existing detectors struggle to detect
images generated by diffusion models, even if we include generated images from
a specific diffusion model in their training data. To address this issue, we
propose a novel image representation called DIffusion Reconstruction Error
(DIRE), which measures the error between an input image and its reconstruction
counterpart by a pre-trained diffusion model. We observe that
diffusion-generated images can be approximately reconstructed by a diffusion
model while real images cannot. It provides a hint that DIRE can serve as a
bridge to distinguish generated and real images. DIRE provides an effective way
to detect images generated by most diffusion models, and it is general for
detecting generated images from unseen diffusion models and robust to various
perturbations. Furthermore, we establish a comprehensive diffusion-generated
benchmark including images generated by eight diffusion models to evaluate the
performance of diffusion-generated image detectors. Extensive experiments on
our collected benchmark demonstrate that DIRE exhibits superiority over
previous generated-image detectors. The code and dataset are available at
https://github.com/ZhendongWang6/DIRE.
- Abstract(参考訳): 拡散モデルでは視覚合成が著しく成功したが、悪意のある目的に対する潜在的な乱用への懸念も生じている。
本稿では,拡散生成画像から実像を分離する検出器の構築を目的とする。
既存の検出器は、訓練データに特定の拡散モデルから生成された画像を含めても、拡散モデルによって生成された画像を検出するのに苦労している。
そこで本研究では,事前学習した拡散モデルを用いて,入力画像とその再構成の誤差を測定する拡散再構成誤差(dire)と呼ばれる新しい画像表現を提案する。
拡散生成画像は拡散モデルによって大まかに再構成できるが,実画像では再現できない。
DIREは生成されたイメージと実際のイメージを区別するためのブリッジとして機能する、というヒントを提供する。
direは、ほとんどの拡散モデルが生成する画像を検出する効果的な方法を提供し、一般に、未知の拡散モデルから生成された画像を検出し、様々な摂動に頑健である。
さらに,8つの拡散モデルによる画像を含む総合拡散生成ベンチマークを構築し,拡散生成画像検出器の性能評価を行った。
収集したベンチマークの大規模な実験により、DIREは以前の生成画像検出器よりも優れていることが示された。
コードとデータセットはhttps://github.com/zhendongwang6/direで入手できる。
関連論文リスト
- Detecting Out-Of-Distribution Earth Observation Images with Diffusion Models [2.1178416840822027]
本研究では,拡散モデルの再構成誤差がリモートセンシング画像の非教師外分布検出器として有効であることを示す。
本稿では,拡散モデルの確率フローODEを用いた新しい再構成ベースのスコアラODEEDを紹介する。
遠隔センシングにおける異常検出のための生成モデルのより良い利用に向けた道を開くことを目的としている。
論文 参考訳(メタデータ) (2024-04-19T07:07:36Z) - Exposing the Fake: Effective Diffusion-Generated Images Detection [14.646957596560076]
本稿では拡散生成画像検出(SeDID)のためのステップワイド誤差と呼ばれる新しい検出法を提案する。
SeDIDは拡散モデルのユニークな特性、すなわち決定論的逆転と決定論的逆退誤差を利用する。
我々の研究は拡散モデル生成画像の識別に重要な貢献をしており、人工知能のセキュリティ分野における重要なステップとなっている。
論文 参考訳(メタデータ) (2023-07-12T16:16:37Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion Models [79.71665540122498]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - Detecting Images Generated by Deep Diffusion Models using their Local
Intrinsic Dimensionality [8.968599131722023]
拡散モデルは驚くほどリアルな画像の視覚合成に成功している。
これにより、悪意のある目的のために、彼らの可能性に対する強い懸念が持ち上がる。
合成画像の自動検出に軽量な多重局所固有次元法(multiLID)を提案する。
論文 参考訳(メタデータ) (2023-07-05T15:03:10Z) - Denoising Diffusion Models for Plug-and-Play Image Restoration [135.6359475784627]
本稿では,従来のプラグアンドプレイ方式を拡散サンプリングフレームワークに統合したDiffPIRを提案する。
DiffPIRは、差別的なガウスのデノイザーに依存するプラグアンドプレイIR法と比較して、拡散モデルの生成能力を継承することが期待されている。
論文 参考訳(メタデータ) (2023-05-15T20:24:38Z) - Your Diffusion Model is Secretly a Zero-Shot Classifier [90.40799216880342]
大規模テキスト・画像拡散モデルからの密度推定をゼロショット分類に活用できることを示す。
分類に対する我々の生成的アプローチは、様々なベンチマークで強い結果が得られる。
我々の結果は、下流タスクにおける差別的モデルよりも生成的な利用に向けての一歩である。
論文 参考訳(メタデータ) (2023-03-28T17:59:56Z) - SinDiffusion: Learning a Diffusion Model from a Single Natural Image [159.4285444680301]
SinDiffusionは1つの自然な画像からパッチの内部分布を捉えるためにデノナイズ拡散モデルを利用する。
SinDiffusionは、2つのコア設計に基づいている。まず、SinDiffusionは、段階的にスケールが成長する複数のモデルではなく、1つのスケールで1つのモデルで訓練されている。
第2に,拡散ネットワークのパッチレベルの受容領域は,画像のパッチ統計を捉える上で重要かつ効果的であることを示す。
論文 参考訳(メタデータ) (2022-11-22T18:00:03Z) - Unifying Diffusion Models' Latent Space, with Applications to
CycleDiffusion and Guidance [95.12230117950232]
関係領域で独立に訓練された2つの拡散モデルから共通潜時空間が現れることを示す。
テキスト・画像拡散モデルにCycleDiffusionを適用することで、大規模なテキスト・画像拡散モデルがゼロショット画像・画像拡散エディタとして使用できることを示す。
論文 参考訳(メタデータ) (2022-10-11T15:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。