論文の概要: CCLAP: Controllable Chinese Landscape Painting Generation via Latent
Diffusion Model
- arxiv url: http://arxiv.org/abs/2304.04156v2
- Date: Sat, 22 Apr 2023 13:58:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 20:20:12.919875
- Title: CCLAP: Controllable Chinese Landscape Painting Generation via Latent
Diffusion Model
- Title(参考訳): CCLAP:潜在拡散モデルによる制御可能な中国景観絵画生成
- Authors: Zhongqi Wang, Jie Zhang, Zhilong Ji, Jinfeng Bai, Shiguang Shan
- Abstract要約: 制御可能な中国の風景画作成方法CCLAP。
本手法は,特に芸術的・芸術的概念において,最先端の演奏を実現する。
- 参考スコア(独自算出の注目度): 54.74470985388726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the development of deep generative models, recent years have seen great
success of Chinese landscape painting generation. However, few works focus on
controllable Chinese landscape painting generation due to the lack of data and
limited modeling capabilities. In this work, we propose a controllable Chinese
landscape painting generation method named CCLAP, which can generate painting
with specific content and style based on Latent Diffusion Model. Specifically,
it consists of two cascaded modules, i.e., content generator and style
aggregator. The content generator module guarantees the content of generated
paintings specific to the input text. While the style aggregator module is to
generate paintings of a style corresponding to a reference image. Moreover, a
new dataset of Chinese landscape paintings named CLAP is collected for
comprehensive evaluation. Both the qualitative and quantitative results
demonstrate that our method achieves state-of-the-art performance, especially
in artfully-composed and artistic conception. Codes are available at
https://github.com/Robin-WZQ/CCLAP.
- Abstract(参考訳): 深層造形モデルの発展に伴い、近年は中国の風景画世代に大きな成功を収めている。
しかし、データの欠如やモデリング能力の制限などにより、中国の風景画生成に焦点を絞った作品はほとんどない。
そこで本研究では,潜伏拡散モデルに基づく特定の内容や様式の絵画を生成できるcclapという中国景観画生成手法を提案する。
具体的には、2つのカスケードモジュール、すなわちコンテンツジェネレータとスタイルアグリゲータで構成される。
コンテンツ生成モジュールは、入力テキスト固有の生成された絵画の内容を保証する。
スタイルアグリゲータモジュールは、参照画像に対応するスタイルの絵画を生成することである。
また、中国風景画の新たなデータセットであるクラップを収集し、総合的な評価を行う。
定性的および定量的な結果から,本手法が最先端の性能,特に芸術的・芸術的概念において達成できることが示唆された。
コードはhttps://github.com/Robin-WZQ/CCLAPで入手できる。
関連論文リスト
- Neural-Polyptych: Content Controllable Painting Recreation for Diverse Genres [30.83874057768352]
我々は,広汎で高解像度な絵画の作成を容易にするために,ニューラル・ポリプチッチという統一的な枠組みを提案する。
我々は、生成プロセスを2つの部分に分割する、マルチスケールのGANベースのアーキテクチャを設計した。
我々は東洋絵画と西洋絵画の両方の多様なジャンルへのアプローチを検証する。
論文 参考訳(メタデータ) (2024-09-29T12:46:00Z) - Artistic Intelligence: A Diffusion-Based Framework for High-Fidelity Landscape Painting Synthesis [2.205829309604458]
LPGenはランドスケープ・ペインティング・ジェネレーションに特化して設計された新しい拡散モデルである。
LPGenは、構造的およびスタイリスティックな特徴を独立して処理する分離されたクロスアテンションメカニズムを導入している。
モデルは高解像度のランドスケープ画像のキュレートされたデータセットに事前トレーニングされ、異なる芸術様式で分類され、詳細で一貫した出力を確保するために微調整される。
論文 参考訳(メタデータ) (2024-07-24T12:32:24Z) - DLP-GAN: learning to draw modern Chinese landscape photos with
generative adversarial network [20.74857981451259]
中国の風景画は独特で芸術的な様式であり、その画法は色と現実的な物体表現の両方において非常に抽象的である。
従来は、近代の絵から古代の墨画への移行に焦点が当てられていたが、風景画を近代の絵に翻訳することにはほとんど関心が向けられていない。
論文 参考訳(メタデータ) (2024-03-06T04:46:03Z) - Chinese Painting Style Transfer Using Deep Generative Models [0.0]
アートスタイルの転送は、コンテンツを保存しながらイメージのスタイルを変更することを目的としている。
本研究は,中国絵画様式の転写における最先端の深層生成モデルについて研究・活用する。
論文 参考訳(メタデータ) (2023-10-15T23:05:17Z) - Kandinsky: an Improved Text-to-Image Synthesis with Image Prior and
Latent Diffusion [50.59261592343479]
本稿では、潜伏拡散アーキテクチャの新しい探索であるKandinsky1を紹介する。
提案したモデルは、CLIPのイメージ埋め込みにテキスト埋め込みをマッピングするために別々に訓練されている。
また,テキスト・ツー・イメージ生成,画像融合,テキスト・画像融合,画像のバリエーション生成,テキスト・インペイント/アウトペイントなど,多様な生成モードをサポートするユーザフレンドリーなデモシステムも展開した。
論文 参考訳(メタデータ) (2023-10-05T12:29:41Z) - Unsupervised Compositional Concepts Discovery with Text-to-Image
Generative Models [80.75258849913574]
本稿では、異なる画像の集合を考えると、各画像を表す生成概念を発見できるかという逆問題を考える。
本稿では,画像の集合から生成概念を抽出し,絵画やオブジェクト,キッチンシーンからの照明から異なる美術スタイルを分離し,イメージネット画像から得られる画像クラスを発見するための教師なしアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-08T17:02:15Z) - BLIP-Diffusion: Pre-trained Subject Representation for Controllable
Text-to-Image Generation and Editing [73.74570290836152]
BLIP-Diffusionはマルチモーダル制御をサポートする新しい主観駆動画像生成モデルである。
他の主観駆動生成モデルとは異なり、BLIP-Diffusionは主観表現を提供するために事前訓練された新しいマルチモーダルエンコーダを導入する。
論文 参考訳(メタデータ) (2023-05-24T04:51:04Z) - Interactive Style Transfer: All is Your Palette [74.06681967115594]
本稿では,ユーザが対話的に調和したスタイルのイメージを作成できる,図形的な対話型スタイル転送(IST)手法を提案する。
私たちのISTメソッドは、どこからでもブラシやディップスタイルとして機能し、ターゲットのコンテンツイメージの任意の領域にペイントします。
論文 参考訳(メタデータ) (2022-03-25T06:38:46Z) - End-to-End Chinese Landscape Painting Creation Using Generative
Adversarial Networks [0.0]
そこで我々は,中国の風景画を条件付き入力なしで終端から終端まで生成する最初のモデルであるSketch-And-Paint GAN(SAPGAN)を提案する。
SAPGANは、エッジマップを生成するSketchGANと、続くエッジ・ツー・ペイント翻訳のためのPaintGANの2つのGANで構成されている。
242人のビジュアルチューリングテストでは、SAPGANの絵画は55%の頻度で人間の作品と誤認され、ベースラインのGANの絵画よりも著しく優れています。
論文 参考訳(メタデータ) (2020-11-11T05:20:42Z) - SketchyCOCO: Image Generation from Freehand Scene Sketches [71.85577739612579]
本稿では,シーンレベルのフリーハンドスケッチから画像の自動生成手法を提案する。
主要なコントリビューションは、EdgeGANと呼ばれる属性ベクトルをブリッジしたGeneversarative Adrial Networkである。
我々はSketchyCOCOと呼ばれる大規模複合データセットを構築し、ソリューションをサポートし評価した。
論文 参考訳(メタデータ) (2020-03-05T14:54:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。