論文の概要: DiffusionDB: A Large-scale Prompt Gallery Dataset for Text-to-Image
Generative Models
- arxiv url: http://arxiv.org/abs/2210.14896v4
- Date: Thu, 6 Jul 2023 11:53:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 18:19:07.941512
- Title: DiffusionDB: A Large-scale Prompt Gallery Dataset for Text-to-Image
Generative Models
- Title(参考訳): DiffusionDB: テキストから画像生成モデルのための大規模プロンプトギャラリーデータセット
- Authors: Zijie J. Wang, Evan Montoya, David Munechika, Haoyang Yang, Benjamin
Hoover, Duen Horng Chau
- Abstract要約: DiffusionDBは6.5TBの大規模なテキストと画像のプロンプトデータセットとしては初めてである。
我々は,プロンプトの構文的特徴と意味的特徴を分析する。
この人間の活動するデータセットの、前例のないスケールと多様性は、エキサイティングな研究機会を提供する。
- 参考スコア(独自算出の注目度): 14.335082150513859
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With recent advancements in diffusion models, users can generate high-quality
images by writing text prompts in natural language. However, generating images
with desired details requires proper prompts, and it is often unclear how a
model reacts to different prompts or what the best prompts are. To help
researchers tackle these critical challenges, we introduce DiffusionDB, the
first large-scale text-to-image prompt dataset totaling 6.5TB, containing 14
million images generated by Stable Diffusion, 1.8 million unique prompts, and
hyperparameters specified by real users. We analyze the syntactic and semantic
characteristics of prompts. We pinpoint specific hyperparameter values and
prompt styles that can lead to model errors and present evidence of potentially
harmful model usage, such as the generation of misinformation. The
unprecedented scale and diversity of this human-actuated dataset provide
exciting research opportunities in understanding the interplay between prompts
and generative models, detecting deepfakes, and designing human-AI interaction
tools to help users more easily use these models. DiffusionDB is publicly
available at: https://poloclub.github.io/diffusiondb.
- Abstract(参考訳): 最近の拡散モデルの進歩により、ユーザーは自然言語でテキストプロンプトを書くことで高品質な画像を生成することができる。
しかし、所望の詳細な画像を生成するには適切なプロンプトが必要であり、モデルがどのように異なるプロンプトに反応するか、最良のプロンプトが何であるかはよくわからない。
これらの重要な課題に対処するために、DiffusionDBを紹介した。DiffusionDBは、Stable Diffusionが生成した1400万のイメージ、1.8万のユニークなプロンプト、および実際のユーザが指定したハイパーパラメータを含む、最初の大規模なテキスト・画像プロンプトデータセットである。
我々はプロンプトの構文的特徴と意味的特徴を分析する。
モデルエラーにつながる可能性のある特定のハイパーパラメータ値とプロンプトスタイルを特定し、誤情報の発生のような潜在的に有害なモデル使用の証拠を示す。
この前例のない規模のデータセットと多様性は、プロンプトと生成モデルの相互作用を理解し、ディープフェイクを検出し、これらのモデルをより簡単に使用するためのヒューマン・aiインタラクションツールを設計するための、エキサイティングな研究機会を提供します。
DiffusionDBは、https://poloclub.github.io/diffusiondb.comで公開されている。
関連論文リスト
- DreamDistribution: Prompt Distribution Learning for Text-to-Image
Diffusion Models [53.17454737232668]
本稿では,事前学習したT2I拡散モデルを用いて,ソフトプロンプトの集合を学習する解を提案する。
これらのプロンプトは、テキストガイドによる編集機能と、複数のディストリビューション間の変動と混合を制御する柔軟性を提供する。
また,テキスト・トゥ・3Dなどの他のタスクに対して,学習したプロンプト分布の適応性を示す。
論文 参考訳(メタデータ) (2023-12-21T12:11:00Z) - Reverse Stable Diffusion: What prompt was used to generate this image? [73.10116197883303]
本研究では, 生成拡散モデルにより生成された画像に対して, 迅速な埋め込みを予測できる課題について検討する。
本稿では,複数ラベルの語彙分類を目的とする共同学習フレームワークを提案する。
我々はDiffusionDBデータセットの実験を行い、安定拡散によって生成された画像からテキストプロンプトを予測する。
論文 参考訳(メタデータ) (2023-08-02T23:39:29Z) - LLM-grounded Diffusion: Enhancing Prompt Understanding of Text-to-Image
Diffusion Models with Large Language Models [62.75006608940132]
本研究は,テキストから画像への拡散モデルにおいて,迅速な理解能力を高めることを提案する。
提案手法は,新たな2段階プロセスにおいて,事前訓練された大規模言語モデルを用いてグラウンドド生成を行う。
提案手法は,画像の正確な生成において,ベース拡散モデルといくつかの強いベースラインを著しく上回る。
論文 参考訳(メタデータ) (2023-05-23T03:59:06Z) - Boosting Human-Object Interaction Detection with Text-to-Image Diffusion
Model [22.31860516617302]
本稿では,事前学習したテキスト画像拡散モデルに基づく新しいHOI検出方式であるDiffHOIを紹介する。
HOIデータセットのギャップを埋めるために、クラスバランス、大規模、高多様性の合成データセットであるSynHOIを提案する。
実験により、DiffHOIは通常の検出(41.50 mAP)とゼロショット検出において、最先端の技術を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2023-05-20T17:59:23Z) - Discffusion: Discriminative Diffusion Models as Few-shot Vision and Language Learners [88.07317175639226]
本稿では,事前学習したテキストと画像の拡散モデルを数ショットの識別学習者に変換する新しい手法,DSDを提案する。
本手法は, 安定拡散モデルにおいて, 視覚情報とテキスト情報の相互影響を捉えるために, クロスアテンションスコアを用いている。
論文 参考訳(メタデータ) (2023-05-18T05:41:36Z) - SUR-adapter: Enhancing Text-to-Image Pre-trained Diffusion Models with
Large Language Models [56.88192537044364]
本研究では,事前学習拡散モデルに対するセマンティック・アダプタ (SUR-adapter) と呼ばれる簡易なパラメータ効率の良い微調整手法を提案する。
ユーザエクスペリエンスの向上により,テキストから画像への拡散モデルの使いやすさが向上する。
論文 参考訳(メタデータ) (2023-05-09T05:48:38Z) - Attend-and-Excite: Attention-Based Semantic Guidance for Text-to-Image
Diffusion Models [103.61066310897928]
最近のテキスト・ツー・イメージ生成モデルは、ターゲットのテキスト・プロンプトによって導かれる多様な創造的な画像を生成する非例外的な能力を実証している。
革命的ではあるが、現在の最先端拡散モデルは、与えられたテキストプロンプトのセマンティクスを完全に伝達するイメージの生成に失敗する可能性がある。
本研究では, 一般に公開されている安定拡散モデルを分析し, 破滅的無視の有無を評価し, そのモデルが入力プロンプトから1つ以上の被写体を生成するのに失敗した場合について検討する。
提案するジェネレーティブ・セマンティック・ナーシング(GSN)の概念は、推論時間中にハエの生殖過程に介入し、忠実性を改善するものである。
論文 参考訳(メタデータ) (2023-01-31T18:10:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。