論文の概要: DreamArtist: Towards Controllable One-Shot Text-to-Image Generation via
Contrastive Prompt-Tuning
- arxiv url: http://arxiv.org/abs/2211.11337v1
- Date: Mon, 21 Nov 2022 10:37:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 18:47:22.320946
- Title: DreamArtist: Towards Controllable One-Shot Text-to-Image Generation via
Contrastive Prompt-Tuning
- Title(参考訳): dreamartist: コントラスト的プロンプトチューニングによるワンショットテキスト対画像生成に向けて
- Authors: Ziyi Dong, Pengxu Wei, Liang Lin
- Abstract要約: 大規模なテキスト画像生成モデルでは,テキストガイダンスに基づいて高解像度,高機能,高画質の画像を合成することができる。
しかし、新しい概念、スタイル、または常に現れるオブジェクトエンティティの言葉に圧倒されることが多い。
本研究では,コントラスト的即興学習の学習戦略を用いたDreamArtist手法を提案する。
- 参考スコア(独自算出の注目度): 85.10894272034135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large-scale text-to-image generation models with an exponential evolution can
currently synthesize high-resolution, feature-rich, high-quality images based
on text guidance. However, they are often overwhelmed by words of new concepts,
styles, or object entities that always emerge. Although there are some recent
attempts to use fine-tuning or prompt-tuning methods to teach the model a new
concept as a new pseudo-word from a given reference image set, these methods
are not only still difficult to synthesize diverse and high-quality images
without distortion and artifacts, but also suffer from low controllability.
To address these problems, we propose a DreamArtist method that employs a
learning strategy of contrastive prompt-tuning, which introduces both positive
and negative embeddings as pseudo-words and trains them jointly. The positive
embedding aggressively learns characteristics in the reference image to drive
the model diversified generation, while the negative embedding introspects in a
self-supervised manner to rectify the mistakes and inadequacies from positive
embedding in reverse. It learns not only what is correct but also what should
be avoided. Extensive experiments on image quality and diversity analysis,
controllability analysis, model learning analysis and task expansion have
demonstrated that our model learns not only concept but also form, content and
context. Pseudo-words of DreamArtist have similar properties as true words to
generate high-quality images.
- Abstract(参考訳): 指数的進化を伴う大規模テキスト画像生成モデルは、現在テキストガイダンスに基づいて高解像度、高機能、高画質の画像を合成することができる。
しかし、新しい概念、スタイル、または常に現れるオブジェクトエンティティの言葉に圧倒されることが多い。
与えられた参照画像集合から新しい擬似語としてモデルに新しい概念を教えるために、微調整やプロンプトチューニングを用いた最近の試みがあるが、これらの手法は、歪曲やアーティファクトを伴わずに多様で高品質な画像を合成するのはまだ困難であるばかりでなく、制御性も低い。
これらの問題に対処するために,擬単語として正と負の埋め込みを導入し,それらを協調的に訓練する,コントラッシブ・プロンプトチューニングの学習戦略を用いたドリームアーティスト手法を提案する。
正の埋め込みは参照画像の特性を積極的に学習し、モデルを多様化させ、負の埋め込みは自己教師ありの方法で内省し、正の埋め込みから誤りや欠点を正す。
正しいことだけでなく、避けるべきことを学ぶ。
画像品質,多様性分析,可制御性解析,モデル学習分析,タスク拡張に関する大規模な実験により,我々のモデルは概念だけでなく,形態,内容,文脈も学習できることを示した。
ドリームアーティストの擬似語は、高品質な画像を生成する真の言葉と類似した性質を持つ。
関連論文リスト
- ZePo: Zero-Shot Portrait Stylization with Faster Sampling [61.14140480095604]
本稿では,4つのサンプリングステップでコンテンツとスタイルの融合を実現する拡散モデルに基づく,インバージョンフリーなポートレートスタイリングフレームワークを提案する。
本稿では,一貫性機能における冗長な特徴をマージする機能統合戦略を提案し,注意制御の計算負荷を低減させる。
論文 参考訳(メタデータ) (2024-08-10T08:53:41Z) - Regeneration Based Training-free Attribution of Fake Images Generated by
Text-to-Image Generative Models [39.33821502730661]
そこで本研究では,テキスト・ツー・イメージ・モデルによって生成された偽画像をソース・モデルに属性付けするためのトレーニング不要な手法を提案する。
テスト画像と候補画像の類似性を計算し、ランキングすることにより、画像のソースを決定することができる。
論文 参考訳(メタデータ) (2024-03-03T11:55:49Z) - Contrastive Prompts Improve Disentanglement in Text-to-Image Diffusion
Models [68.47333676663312]
テキスト・ツー・イメージ・モデルにおける画像要素のアンタングル化に有効な分類器フリーガイダンスの簡単な修正法を示す。
提案手法のキーとなる考え方は、最小限のトークンで異なる2つのプロンプトを持つ意図された要因を特徴づけることである。
我々は,(1)オブジェクトクラスで訓練されたドメイン固有拡散モデル,(2)テキスト・画像生成のための連続的なリグライクな制御,(3)ゼロショット画像エディタの性能向上の3つのシナリオにおいて,その利点を説明する。
論文 参考訳(メタデータ) (2024-02-21T03:01:17Z) - Pick-and-Draw: Training-free Semantic Guidance for Text-to-Image
Personalization [56.12990759116612]
Pick-and-Drawは、パーソナライズ手法のアイデンティティ一貫性と生成多様性を高めるためのトレーニング不要なセマンティックガイダンスアプローチである。
提案手法は、パーソナライズされた拡散モデルに適用可能であり、単一の参照画像のみを必要とする。
論文 参考訳(メタデータ) (2024-01-30T05:56:12Z) - Fair Text-to-Image Diffusion via Fair Mapping [32.02815667307623]
本稿では,事前学習したテキスト・画像拡散モデルを修正する,フレキシブルでモデルに依存しない,軽量なアプローチを提案する。
暗黙的言語バイアスの問題を効果的に解決することにより、より公平で多様な画像出力を生成する。
論文 参考訳(メタデータ) (2023-11-29T15:02:01Z) - ITI-GEN: Inclusive Text-to-Image Generation [56.72212367905351]
本研究では,人書きプロンプトに基づいて画像を生成する包括的テキスト・画像生成モデルについて検討する。
いくつかの属性に対して、画像はテキストよりも概念を表現的に表現できることを示す。
Inclusive Text-to- Image GENeration に容易に利用可能な参照画像を活用する新しいアプローチ ITI-GEN を提案する。
論文 参考訳(メタデータ) (2023-09-11T15:54:30Z) - ReGeneration Learning of Diffusion Models with Rich Prompts for
Zero-Shot Image Translation [8.803251014279502]
大規模なテキスト・ツー・イメージモデルは、多彩で高忠実な画像を合成する素晴らしい能力を示した。
現在のモデルでは、編集プロセス中に元の画像の内容に大きな変更を加えることができる。
画像と画像の拡散モデル(ReDiffuser)における再生学習を提案する。
論文 参考訳(メタデータ) (2023-05-08T12:08:12Z) - Taming Encoder for Zero Fine-tuning Image Customization with
Text-to-Image Diffusion Models [55.04969603431266]
本稿では,ユーザが指定したカスタマイズされたオブジェクトの画像を生成する手法を提案する。
この手法は、従来のアプローチで要求される長大な最適化をバイパスする一般的なフレームワークに基づいている。
提案手法は, 出力品質, 外観の多様性, 被写体忠実度を考慮した画像合成が可能であることを示す。
論文 参考訳(メタデータ) (2023-04-05T17:59:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。