論文の概要: TextLap: Customizing Language Models for Text-to-Layout Planning
- arxiv url: http://arxiv.org/abs/2410.12844v1
- Date: Wed, 09 Oct 2024 19:51:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-20 09:11:00.995254
- Title: TextLap: Customizing Language Models for Text-to-Layout Planning
- Title(参考訳): TextLap: テキストからレイアウト計画のための言語モデルのカスタマイズ
- Authors: Jian Chen, Ruiyi Zhang, Yufan Zhou, Jennifer Healey, Jiuxiang Gu, Zhiqiang Xu, Changyou Chen,
- Abstract要約: メソッドをTextLap(テキストベースのレイアウト計画)と呼びます。
キュレートされた命令ベースのレイアウト計画データセット(InsLap)を使用して、グラフィックデザイナとしてLarge Language Model(LLM)をカスタマイズする。
我々はTextLapの有効性を実証し、画像生成やグラフィカルデザインベンチマークのためのGPT-4ベースの手法を含む強力なベースラインよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 65.02105936609021
- License:
- Abstract: Automatic generation of graphical layouts is crucial for many real-world applications, including designing posters, flyers, advertisements, and graphical user interfaces. Given the incredible ability of Large language models (LLMs) in both natural language understanding and generation, we believe that we could customize an LLM to help people create compelling graphical layouts starting with only text instructions from the user. We call our method TextLap (text-based layout planning). It uses a curated instruction-based layout planning dataset (InsLap) to customize LLMs as a graphic designer. We demonstrate the effectiveness of TextLap and show that it outperforms strong baselines, including GPT-4 based methods, for image generation and graphical design benchmarks.
- Abstract(参考訳): グラフィックレイアウトの自動生成は、ポスター、チラシ、広告、グラフィカルユーザーインターフェースなど、多くの現実世界のアプリケーションにとって不可欠である。
自然言語の理解と生成の両方において、LLM(Large Language Model)の驚くべき能力を考えると、私たちはLLMをカスタマイズして、ユーザからのテキスト命令から始まる魅力的なグラフィカルレイアウトを作成できると考えています。
メソッドをTextLap(テキストベースのレイアウト計画)と呼びます。
キュレートされた命令ベースのレイアウト計画データセット(InsLap)を使用して、グラフィックデザイナとしてLLMをカスタマイズする。
我々はTextLapの有効性を実証し、画像生成やグラフィカルデザインベンチマークのためのGPT-4ベースの手法を含む強力なベースラインよりも優れていることを示す。
関連論文リスト
- AI Based Font Pair Suggestion Modelling For Graphic Design [0.0]
Microsoft DesignerにおけるAI生成設計の重要な課題の1つは、デザイン提案に最もコンテキスト的に関連があり、新しいフォントを選択することである。
本研究は,フォントの視覚埋め込み,フォントストローク幅アルゴリズム,フォントマッピングデータセットへのフォントカテゴリ,および軽量で低レイテンシで知識に富んだミニ言語モデル(Mini LM V2)を作成し,複数の組のコンテキスト方向およびサブヘッドフォントを推奨する。
論文 参考訳(メタデータ) (2025-01-19T07:08:36Z) - Personalized Graph-Based Retrieval for Large Language Models [51.7278897841697]
ユーザ中心の知識グラフを利用してパーソナライゼーションを強化するフレームワークを提案する。
構造化されたユーザ知識を直接検索プロセスに統合し、ユーザ関連コンテキストにプロンプトを拡大することにより、PGraphはコンテキスト理解と出力品質を向上させる。
また,ユーザ履歴が不足あるいは利用できない実環境において,パーソナライズされたテキスト生成タスクを評価するために設計された,パーソナライズドグラフベースのテキスト生成ベンチマークを導入する。
論文 参考訳(メタデータ) (2025-01-04T01:46:49Z) - HouseLLM: LLM-Assisted Two-Phase Text-to-Floorplan Generation [4.242755827806053]
本稿では,Large Language Model (LLM) を誘導して初期レイアウトを生成する2段階のテキスト・ツー・フロアプラン生成手法を提案する。
我々は、ユーザテキスト仕様に基づいてLCMを誘導するためにChain-of-Thoughtアプローチを導入し、よりユーザフレンドリで直感的な住宅レイアウト設計を可能にした。
実験結果から,本手法は全指標の最先端性能を実現し,実用的ホームデザインにおける有効性を検証した。
論文 参考訳(メタデータ) (2024-11-19T06:57:45Z) - GLDesigner: Leveraging Multi-Modal LLMs as Designer for Enhanced Aesthetic Text Glyph Layouts [53.568057283934714]
コンテンツ対応のテキストロゴレイアウトを生成するVLMベースのフレームワークを提案する。
本稿では,複数のグリフ画像の同時処理における計算量を削減するための2つのモデル手法を提案する。
アウトモデルのインストラクションチューニングを支援するために,既存の公開データセットよりも5倍大きい2つの拡張テキストロゴデータセットを構築した。
論文 参考訳(メタデータ) (2024-11-18T10:04:10Z) - PosterLLaVa: Constructing a Unified Multi-modal Layout Generator with LLM [58.67882997399021]
本研究では,グラフィックレイアウトの自動生成のための統合フレームワークを提案する。
データ駆動方式では、レイアウトを生成するために構造化テキスト(JSONフォーマット)とビジュアルインストラクションチューニングを用いる。
我々は,ユーザのデザイン意図に基づいて編集可能なポスターを生成する自動テキスト投稿システムを開発した。
論文 参考訳(メタデータ) (2024-06-05T03:05:52Z) - LayoutGPT: Compositional Visual Planning and Generation with Large
Language Models [98.81962282674151]
大規模言語モデル(LLM)は、テキスト条件からレイアウトを生成することで視覚的なプランナーとして機能する。
本稿では,スタイルシート言語におけるコンテキスト内視覚的デモンストレーションを構成する手法であるLayoutGPTを提案する。
論文 参考訳(メタデータ) (2023-05-24T17:56:16Z) - A Picture is Worth a Thousand Words: Language Models Plan from Pixels [53.85753597586226]
計画は, 実環境下で長時間の作業を行う人工エージェントの重要な機能である。
本研究では,事前学習型言語モデル(PLM)を用いて,具体的視覚環境におけるテキスト命令からのプランシーケンスを推論する。
論文 参考訳(メタデータ) (2023-03-16T02:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。