論文の概要: Paint it Black: Generating paintings from text descriptions
- arxiv url: http://arxiv.org/abs/2302.08808v1
- Date: Fri, 17 Feb 2023 11:07:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 15:01:59.777614
- Title: Paint it Black: Generating paintings from text descriptions
- Title(参考訳): 絵を黒く塗る:テキスト記述から絵を作る
- Authors: Mahnoor Shahid, Mark Koch, and Niklas Schneider
- Abstract要約: 与えられたテキストのプロンプトからフォトリアリスティックな画像を生成し、絵のスタイルを実際の画像に移し、まるでアーティストによって行われたかのように見せるという2つのタスクが何度も解決され、それを達成するためのいくつかのアプローチが提案されている。
本稿では,2つの異なる戦略を探求し,それらを統合した。
第1の戦略は、フォトリアリスティック画像を生成し、スタイル転送を適用し、第2の戦略は、キャプションで実画像上で画像生成モデルをトレーニングし、後でキャプションされた絵に微調整することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Two distinct tasks - generating photorealistic pictures from given text
prompts and transferring the style of a painting to a real image to make it
appear as though it were done by an artist, have been addressed many times, and
several approaches have been proposed to accomplish them. However, the
intersection of these two, i.e., generating paintings from a given caption, is
a relatively unexplored area with little data available. In this paper, we have
explored two distinct strategies and have integrated them together. First
strategy is to generate photorealistic images and then apply style transfer and
the second strategy is to train an image generation model on real images with
captions and then fine-tune it on captioned paintings later. These two models
are evaluated using different metrics as well as a user study is conducted to
get human feedback on the produced results.
- Abstract(参考訳): 与えられたテキストプロンプトからフォトリアリスティックな絵を生成し、絵のスタイルを実際のイメージに移してアーティストがやったように見せるという2つのタスクは何度も取り組まれており、それらを達成するためにいくつかのアプローチが提案されている。
しかし、これらの2つの交点、すなわち与えられたキャプションから絵を生成することは、データが少ない比較的未調査領域である。
本稿では,2つの異なる戦略を検討し,それらを統合した。
第1の戦略は、フォトリアリスティックな画像を生成し、次にスタイル転送を行い、第2の戦略は、実画像にキャプション付き画像生成モデルを訓練し、後でキャプション付き絵画に微調整することである。
これら2つのモデルは、異なるメトリクスを用いて評価され、結果に対する人間のフィードバックを得るためにユーザー調査が行われる。
関連論文リスト
- DLP-GAN: learning to draw modern Chinese landscape photos with
generative adversarial network [20.74857981451259]
中国の風景画は独特で芸術的な様式であり、その画法は色と現実的な物体表現の両方において非常に抽象的である。
従来は、近代の絵から古代の墨画への移行に焦点が当てられていたが、風景画を近代の絵に翻訳することにはほとんど関心が向けられていない。
論文 参考訳(メタデータ) (2024-03-06T04:46:03Z) - Style Aligned Image Generation via Shared Attention [61.121465570763085]
本稿では,一連の生成画像間のスタイルアライメントを確立する技術であるStyleAlignedを紹介する。
拡散過程において、最小限の注意共有を生かして、T2Iモデル内の画像間のスタイル整合性を維持する。
本手法は,多種多様なスタイルやテキストのプロンプトにまたがって評価を行い,高品質で忠実であることを示す。
論文 参考訳(メタデータ) (2023-12-04T18:55:35Z) - Interactive Neural Painting [66.9376011879115]
本稿では,対話型ニューラルペイント(NP)の最初のアプローチを提案する。
2段デコーダを用いた条件変圧器変分自動エンコーダ(VAE)アーキテクチャに基づく新しい手法であるI-Paintを提案する。
実験の結果,本手法は良好なストローク提案を提供し,最先端技術と比較した。
論文 参考訳(メタデータ) (2023-07-31T07:02:00Z) - Text-Guided Synthesis of Eulerian Cinemagraphs [81.20353774053768]
テキスト記述からシネマグラフを作成する完全自動化された方法であるText2Cinemagraphを紹介する。
連続した動きと反復的なテクスチャを示す流れの川や漂流する雲などの流体要素のシネマグラフに焦点を当てる。
論文 参考訳(メタデータ) (2023-07-06T17:59:31Z) - Inversion-Based Style Transfer with Diffusion Models [78.93863016223858]
以前の任意の例として誘導された芸術的画像生成法は、しばしば形状変化の制御や要素の伝達に失敗する。
画像のキー情報を効率よく正確に学習できるインバージョンベースのスタイル転送手法(InST)を提案する。
論文 参考訳(メタデータ) (2022-11-23T18:44:25Z) - AI Illustrator: Translating Raw Descriptions into Images by Prompt-based
Cross-Modal Generation [61.77946020543875]
本稿では,複雑な意味論による生の記述を意味的に対応する画像に翻訳するフレームワークを提案する。
本フレームワークは,テキスト埋め込みから画像埋め込みへのプロンプトに基づくプロジェクションモジュールと,StyleGAN上に構築された適応画像生成モジュールの2つのコンポーネントから構成される。
本手法は,事前学習モデルに適合し,複雑な記述を処理でき,外部のペアデータを必要としない。
論文 参考訳(メタデータ) (2022-09-07T13:53:54Z) - Text to artistic image generation [0.0]
テキスト記述から芸術的な画像を生成できるエンドツーエンドのソリューションを作成します。
ペア化されたテキスト記述とアートイメージのデータセットが不足しているため、テキスト入力に基づいてアートを作成するアルゴリズムを直接訓練することは困難である。
論文 参考訳(メタデータ) (2022-05-05T04:44:56Z) - Painting Outside as Inside: Edge Guided Image Outpainting via
Bidirectional Rearrangement with Progressive Step Learning [18.38266676724225]
双方向境界領域再構成を用いた画像出力方式を提案する。
提案手法は, 定性的, 定量的に, 他の最先端の塗装工法と比較した。
実験の結果,本手法は他の手法よりも優れ,360デグパノラマ特性を持つ新しい画像を生成することがわかった。
論文 参考訳(メタデータ) (2020-10-05T06:53:55Z) - Sketch-Guided Scenery Image Outpainting [83.6612152173028]
本稿では,スケッチ誘導露光を行うエンコーダデコーダに基づくネットワークを提案する。
全体的アライメントモジュールを適用して、合成された部分をグローバルビューの実際のものと類似させる。
第2に, 合成した部分からスケッチを逆向きに生成し, 接地した部分との整合性を奨励する。
論文 参考訳(メタデータ) (2020-06-17T11:34:36Z) - Text-Guided Neural Image Inpainting [20.551488941041256]
塗装作業では、劣化した画像をコンテキストに整合した内容で埋める必要がある。
本論文の目的は, 提供される記述文に従って, 劣化画像中の意味情報を埋めることである。
テキストガイドデュアルアテンション・インパインティング・ネットワーク(TDANet)という新しいインパインティング・モデルを提案する。
論文 参考訳(メタデータ) (2020-04-07T09:04:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。