論文の概要: DRAGON: A Large-Scale Dataset of Realistic Images Generated by Diffusion Models
- arxiv url: http://arxiv.org/abs/2505.11257v1
- Date: Fri, 16 May 2025 13:50:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:15.176817
- Title: DRAGON: A Large-Scale Dataset of Realistic Images Generated by Diffusion Models
- Title(参考訳): DRAGON:拡散モデルによる実写画像の大規模データセット
- Authors: Giulia Bertazzini, Daniele Baracchi, Dasara Shullani, Isao Echizen, Alessandro Piva,
- Abstract要約: DRAGONは25の拡散モデルの画像からなる包括的なデータセットである。
データセットには、多様な対象を表す多様な画像が含まれている。
DRAGONは、合成コンテンツの検出および属性技術の開発と評価において、法医学的なコミュニティを支援するように設計されている。
- 参考スコア(独自算出の注目度): 48.347550000332866
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The remarkable ease of use of diffusion models for image generation has led to a proliferation of synthetic content online. While these models are often employed for legitimate purposes, they are also used to generate fake images that support misinformation and hate speech. Consequently, it is crucial to develop robust tools capable of detecting whether an image has been generated by such models. Many current detection methods, however, require large volumes of sample images for training. Unfortunately, due to the rapid evolution of the field, existing datasets often cover only a limited range of models and quickly become outdated. In this work, we introduce DRAGON, a comprehensive dataset comprising images from 25 diffusion models, spanning both recent advancements and older, well-established architectures. The dataset contains a broad variety of images representing diverse subjects. To enhance image realism, we propose a simple yet effective pipeline that leverages a large language model to expand input prompts, thereby generating more diverse and higher-quality outputs, as evidenced by improvements in standard quality metrics. The dataset is provided in multiple sizes (ranging from extra-small to extra-large) to accomodate different research scenarios. DRAGON is designed to support the forensic community in developing and evaluating detection and attribution techniques for synthetic content. Additionally, the dataset is accompanied by a dedicated test set, intended to serve as a benchmark for assessing the performance of newly developed methods.
- Abstract(参考訳): 画像生成に拡散モデルを用いることで、オンラインでの合成コンテンツの普及につながった。
これらのモデルはしばしば合法的な目的のために使用されるが、偽情報や憎しみの表現をサポートする偽画像を生成するために使われる。
したがって、そのようなモデルによって画像が生成されたかどうかを検知できる堅牢なツールを開発することが重要である。
しかし、現在の多くの検出方法は、トレーニングのために大量のサンプル画像を必要とする。
残念ながら、フィールドの急速な進化のために、既存のデータセットはしばしば限られた範囲のモデルしかカバーせず、すぐに時代遅れになる。
本稿では,25の拡散モデルから得られた画像からなる包括的データセットであるDRAGONについて紹介する。
データセットには、多様な対象を表す多様な画像が含まれている。
画像リアリズムを高めるために,大規模な言語モデルを利用して入力プロンプトを拡大し,標準品質指標の改善によって証明されるように,より多彩で高品質な出力を生成する,シンプルで効果的なパイプラインを提案する。
データセットは、さまざまな研究シナリオを称賛するために、複数のサイズ(極小から極小まで)で提供される。
DRAGONは、合成コンテンツの検出および属性技術の開発と評価において、法医学的なコミュニティを支援するように設計されている。
さらに、データセットには専用のテストセットが付属しており、新たに開発されたメソッドのパフォーマンスを評価するためのベンチマークとして機能することを意図している。
関連論文リスト
- Community Forensics: Using Thousands of Generators to Train Fake Image Detectors [15.166026536032142]
AI生成画像を検出する上で重要な課題の1つは、これまで目に見えない生成モデルによって作成された画像を見つけることである。
従来よりも大きく,多様である新しいデータセットを提案する。
得られたデータセットには、4803の異なるモデルからサンプリングされた2.7Mイメージが含まれている。
論文 参考訳(メタデータ) (2024-11-06T18:59:41Z) - Learned representation-guided diffusion models for large-image generation [58.192263311786824]
自己教師型学習(SSL)からの埋め込みを条件とした拡散モデルを訓練する新しいアプローチを導入する。
我々の拡散モデルは、これらの特徴を高品質な病理組織学およびリモートセンシング画像に投影することに成功した。
実画像のバリエーションを生成して実データを増やすことにより、パッチレベルおよび大規模画像分類タスクの下流精度が向上する。
論文 参考訳(メタデータ) (2023-12-12T14:45:45Z) - StableLLaVA: Enhanced Visual Instruction Tuning with Synthesized
Image-Dialogue Data [129.92449761766025]
本稿では,視覚的インストラクションチューニングのための画像と対話を同期的に合成する新しいデータ収集手法を提案する。
このアプローチは生成モデルのパワーを活用し、ChatGPTとテキスト・ツー・イメージ生成モデルの能力とを結合する。
本研究は,各種データセットを対象とした総合的な実験を含む。
論文 参考訳(メタデータ) (2023-08-20T12:43:52Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Generating Annotated High-Fidelity Images Containing Multiple Coherent
Objects [10.783993190686132]
コンテキスト情報を明示的に必要とせずに、複数のオブジェクトで画像を合成できるマルチオブジェクト生成フレームワークを提案する。
我々は,Multi-MNISTおよびCLEVRデータセットを用いた実験により,コヒーレンシーと忠実さの保存方法を示す。
論文 参考訳(メタデータ) (2020-06-22T11:33:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。