論文の概要: Detecting Images Generated by Diffusers
- arxiv url: http://arxiv.org/abs/2303.05275v3
- Date: Fri, 21 Apr 2023 14:17:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 17:21:13.970777
- Title: Detecting Images Generated by Diffusers
- Title(参考訳): ディフューザによる画像の検出
- Authors: Davide Alessandro Coccomini, Andrea Esuli, Fabrizio Falchi, Claudio
Gennaro, Giuseppe Amato
- Abstract要約: MSCOCOとWikimediaのデータセットのキャプションから生成された画像は、安定拡散とGLIDEの2つの最先端モデルを用いて検討する。
実験の結果, 単純なマルチ層パーセプトロンを用いて生成した画像を検出することができることがわかった。
関連したテキスト情報を画像に組み込むと、検出結果が大幅に改善されることは滅多にない。
- 参考スコア(独自算出の注目度): 12.986394431694206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores the task of detecting images generated by text-to-image
diffusion models. To evaluate this, we consider images generated from captions
in the MSCOCO and Wikimedia datasets using two state-of-the-art models: Stable
Diffusion and GLIDE. Our experiments show that it is possible to detect the
generated images using simple Multi-Layer Perceptrons (MLPs), starting from
features extracted by CLIP, or traditional Convolutional Neural Networks
(CNNs). We also observe that models trained on images generated by Stable
Diffusion can detect images generated by GLIDE relatively well, however, the
reverse is not true. Lastly, we find that incorporating the associated textual
information with the images rarely leads to significant improvement in
detection results but that the type of subject depicted in the image can have a
significant impact on performance. This work provides insights into the
feasibility of detecting generated images, and has implications for security
and privacy concerns in real-world applications. The code to reproduce our
results is available at:
https://github.com/davide-coccomini/Detecting-Images-Generated-by-Diffusers
- Abstract(参考訳): 本稿では,テキスト・画像拡散モデルにより生成された画像を検出するタスクについて検討する。
これを評価するために,MSCOCOおよびWikimediaデータセットのキャプションから生成された画像について,静的拡散とGLIDEの2つの最先端モデルを用いて検討する。
本実験では,クリップや従来の畳み込みニューラルネットワーク(cnns)から抽出した特徴から,単純多層パーセプトロン(mlps)を用いて生成画像の検出が可能であることを示す。
また,安定拡散によって生成した画像にトレーニングされたモデルが比較的よく検出できるのを観察したが,逆は成り立たない。
最後に,画像に関連付けられたテキスト情報を組み込むことで検出結果が著しく向上することは稀であるが,画像に表される被写体の種類が性能に有意な影響を与える可能性があることを見出した。
この研究は、生成された画像の検出可能性に関する洞察を提供し、現実世界のアプリケーションにおけるセキュリティとプライバシの懸念に影響を及ぼす。
結果はhttps://github.com/davide-coccomini/detecting-images-create-by-diffusersで再生できます。
関連論文リスト
- On the Effectiveness of Dataset Alignment for Fake Image Detection [28.68129042301801]
優れた検出器は、セマンティックコンテンツ、解像度、ファイルフォーマットなどの画像特性を無視しながら、生成モデル指紋に焦点を当てるべきである。
この研究では、これらのアルゴリズムの選択に加えて、堅牢な検出器をトレーニングするためには、リアル/フェイク画像の整列したデータセットも必要である、と論じる。
そこで本研究では, LDMの家族に対して, LDMのオートエンコーダを用いて実画像の再構成を行う手法を提案する。
論文 参考訳(メタデータ) (2024-10-15T17:58:07Z) - How to Trace Latent Generative Model Generated Images without Artificial Watermark? [88.04880564539836]
潜在生成モデルによって生成された画像に関する潜在的な誤用に関する懸念が持ち上がっている。
検査されたモデルの生成された画像をトレースするために,レイトタントトラッカーと呼ばれる潜時反転に基づく手法を提案する。
提案手法は,検査したモデルと他の画像から生成された画像とを高精度かつ効率的に識別できることを示す。
論文 参考訳(メタデータ) (2024-05-22T05:33:47Z) - Diffusion Noise Feature: Accurate and Fast Generated Image Detection [28.262273539251172]
生成モデルは、驚くほどリアルなイメージを生成できる先進的な段階に達している。
生成された画像に対する既存の画像検出器は、低精度や限定的な一般化といった課題に直面している。
本稿では,生成画像の検出能力を高めるために,強力な一般化機能を備えた表現を求めることにより,この問題に対処する。
論文 参考訳(メタデータ) (2023-12-05T10:01:11Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion Models [79.71665540122498]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Text-to-Image Diffusion Models are Zero-Shot Classifiers [8.26990105697146]
ゼロショット分類器として評価する手法を提案し,テキスト・画像拡散モデルについて検討した。
本手法を安定拡散およびイメージnに適用し,モデル知識のきめ細かい面を探索する。
彼らは幅広いゼロショット画像分類データセットでCLIPと競合する。
論文 参考訳(メタデータ) (2023-03-27T14:15:17Z) - DIRE for Diffusion-Generated Image Detection [128.95822613047298]
拡散再構成誤り(DIRE)という新しい表現を提案する。
DIREは、予め訓練された拡散モデルにより、入力画像とその再構成画像間の誤差を測定する。
DIREは生成されたイメージと実際のイメージを区別するためのブリッジとして機能する、というヒントを提供する。
論文 参考訳(メタデータ) (2023-03-16T13:15:03Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。