論文の概要: Unifying Layout Generation with a Decoupled Diffusion Model
- arxiv url: http://arxiv.org/abs/2303.05049v1
- Date: Thu, 9 Mar 2023 05:53:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 16:03:38.024149
- Title: Unifying Layout Generation with a Decoupled Diffusion Model
- Title(参考訳): デカップリング拡散モデルによるレイアウト生成の統一化
- Authors: Mude Hui, Zhizheng Zhang, Xiaoyi Zhang, Wenxuan Xie, Yuwang Wang, Yan
Lu
- Abstract要約: これは、出版物、文書、ユーザーインターフェース(UI)などのフォーマットされたシーンに対する重厚なグラフィックデザイン作業の負担を軽減するための重要なタスクである。
単一分離拡散モデルでそのような統一を実現するためのレイアウト拡散生成モデル(LDGM)を提案する。
提案するLDGMは,任意の属性に対してスクラッチあるいは条件付きでレイアウトを生成することができる。
- 参考スコア(独自算出の注目度): 26.659337441975143
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Layout generation aims to synthesize realistic graphic scenes consisting of
elements with different attributes including category, size, position, and
between-element relation. It is a crucial task for reducing the burden on
heavy-duty graphic design works for formatted scenes, e.g., publications,
documents, and user interfaces (UIs). Diverse application scenarios impose a
big challenge in unifying various layout generation subtasks, including
conditional and unconditional generation. In this paper, we propose a Layout
Diffusion Generative Model (LDGM) to achieve such unification with a single
decoupled diffusion model. LDGM views a layout of arbitrary missing or coarse
element attributes as an intermediate diffusion status from a completed layout.
Since different attributes have their individual semantics and characteristics,
we propose to decouple the diffusion processes for them to improve the
diversity of training samples and learn the reverse process jointly to exploit
global-scope contexts for facilitating generation. As a result, our LDGM can
generate layouts either from scratch or conditional on arbitrary available
attributes. Extensive qualitative and quantitative experiments demonstrate our
proposed LDGM outperforms existing layout generation models in both
functionality and performance.
- Abstract(参考訳): レイアウト生成は、カテゴリ、サイズ、位置、要素間の関係など、異なる属性を持つ要素からなるリアルなグラフィックシーンを合成することを目的としている。
これは、出版物、文書、ユーザーインターフェース(UI)などのフォーマットされたシーンに対する重厚なグラフィックデザイン作業の負担を軽減するための重要なタスクである。
多様なアプリケーションシナリオは、条件付きおよび無条件生成を含む様々なレイアウト生成サブタスクを統合する際に大きな課題を課す。
本稿では,1つの分離拡散モデルでそのような統一を実現するために,レイアウト拡散生成モデル(LDGM)を提案する。
LDGMは、任意の欠落または粗い要素属性のレイアウトを、完了したレイアウトから中間拡散状態として見る。
異なる属性は個々のセマンティクスと特性を持っているため、トレーニングサンプルの多様性を向上させるために拡散過程を分離し、相互にリバースプロセスを学習し、グローバルスコープコンテキストを活用し、生成を促進する。
その結果、LDGMはスクラッチまたは任意の属性に対して条件付きでレイアウトを生成することができる。
大規模定性的および定量的実験により,提案するLDGMは,既存のレイアウト生成モデルよりも機能および性能に優れることを示した。
関連論文リスト
- PosterLLaVa: Constructing a Unified Multi-modal Layout Generator with LLM [58.67882997399021]
本研究では,グラフィックレイアウトの自動生成のための統合フレームワークを提案する。
データ駆動方式では、レイアウトを生成するために構造化テキスト(JSONフォーマット)とビジュアルインストラクションチューニングを用いる。
我々は、大規模な実験を行い、パブリックなマルチモーダルレイアウト生成ベンチマーク上で、最先端(SOTA)性能を達成した。
論文 参考訳(メタデータ) (2024-06-05T03:05:52Z) - Towards Aligned Layout Generation via Diffusion Model with Aesthetic Constraints [53.66698106829144]
広い範囲のレイアウト生成タスクを処理する統一モデルを提案する。
このモデルは連続拡散モデルに基づいている。
実験結果から,LACEは高品質なレイアウトを生成することがわかった。
論文 参考訳(メタデータ) (2024-02-07T11:12:41Z) - SSMG: Spatial-Semantic Map Guided Diffusion Model for Free-form
Layout-to-Image Generation [68.42476385214785]
本稿では,レイアウトから派生した特徴写像を用いた空間意味マップガイド(SSMG)拡散モデルを提案する。
SSMGは,従来の研究に比べて空間的,意味的な制御性に優れた生成品質を実現する。
また,RSA(Relation-Sensitive Attention)機構とLSA(Location-Sensitive Attention)機構を提案する。
論文 参考訳(メタデータ) (2023-08-20T04:09:12Z) - LAW-Diffusion: Complex Scene Generation by Diffusion with Layouts [107.11267074981905]
LAW拡散(LAW-Diffusion)と呼ばれる意味制御可能なレイアウト・AWare拡散モデルを提案する。
LAW拡散は、特にコヒーレントな対象関係を持つ最先端の生成性能をもたらすことを示す。
論文 参考訳(メタデータ) (2023-08-13T08:06:18Z) - LayoutDM: Transformer-based Diffusion Model for Layout Generation [0.6445605125467572]
高品質な画像を生成するためにトランスフォーマーベース拡散モデル(DDPM)を提案する。
雑音配置データからサンプルを生成するために,トランスフォーマを用いた条件付きレイアウトデノイザを提案する。
本手法は, 品質と多様性の観点から, 最先端の生成モデルより優れる。
論文 参考訳(メタデータ) (2023-05-04T05:51:35Z) - LayoutDiffusion: Improving Graphic Layout Generation by Discrete
Diffusion Probabilistic Models [50.73105631853759]
レイアウト自動生成のための新しい生成モデルLayoutDiffusionを提案する。
このプロセスでは,前方ステップの成長に伴うレイアウトの混乱が増している。
これにより、プラグアンドプレイ方式で2つの条件付きレイアウト生成タスクを再トレーニングすることなく実現し、既存の方法よりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-03-21T04:41:02Z) - LayoutDM: Discrete Diffusion Model for Controllable Layout Generation [27.955214767628107]
制御可能なレイアウト生成は、任意の制約で要素境界ボックスの妥当な配置を合成することを目的としている。
本研究では、離散状態空間拡散モデルに基づく単一モデルにおいて、幅広いレイアウト生成タスクを解くことを試みる。
我々のモデルはLayoutDMと呼ばれ、離散表現の構造化レイアウトデータを自然に処理し、初期入力からノイズレスレイアウトを段階的に推測することを学ぶ。
論文 参考訳(メタデータ) (2023-03-14T17:59:47Z) - DLT: Conditioned layout generation with Joint Discrete-Continuous
Diffusion Layout Transformer [2.0483033421034142]
DLTは離散連続拡散モデルである。
DLTにはフレキシブルな条件付け機構があり、すべてのレイアウトコンポーネントクラス、場所、サイズのいずれかのサブセットを条件付けできる。
提案手法は,様々なレイアウト生成データセット上で,様々なメトリクスや条件設定に対して,最先端の生成モデルより優れています。
論文 参考訳(メタデータ) (2023-03-07T09:30:43Z) - LayoutDiffuse: Adapting Foundational Diffusion Models for
Layout-to-Image Generation [24.694298869398033]
提案手法は,高い知覚品質とレイアウトアライメントの両面から画像を生成し,効率よく訓練する。
提案手法は, GAN, VQ-VAE, 拡散モデルに基づく他の10種類の生成モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-02-16T14:20:25Z) - Semantic Image Synthesis via Diffusion Models [159.4285444680301]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に「GAN(Generative Adversarial Nets)」に追従している。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。