論文の概要: Aggregated Structural Representation with Large Language Models for Human-Centric Layout Generation
- arxiv url: http://arxiv.org/abs/2505.19554v1
- Date: Mon, 26 May 2025 06:17:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.207045
- Title: Aggregated Structural Representation with Large Language Models for Human-Centric Layout Generation
- Title(参考訳): 大規模言語モデルを用いた人中心レイアウト生成のための集約構造表現
- Authors: Jiongchao Jin, Shengchu Zhao, Dajun Chen, Wei Jiang, Yong Li,
- Abstract要約: 本稿では,グラフネットワークを大規模言語モデル (LLM) と統合して構造情報を保存し,生成能力を向上するアグリゲーション構造表現 (ASR) モジュールを提案する。
RICOデータセットに対する包括的評価は、平均的相互接続(mIoU)と、クラウドソーシングによるユーザスタディによる定性の両方を用いて、ASRの強い性能を示す。
- 参考スコア(独自算出の注目度): 7.980497203230983
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time consumption and the complexity of manual layout design make automated layout generation a critical task, especially for multiple applications across different mobile devices. Existing graph-based layout generation approaches suffer from limited generative capability, often resulting in unreasonable and incompatible outputs. Meanwhile, vision based generative models tend to overlook the original structural information, leading to component intersections and overlaps. To address these challenges, we propose an Aggregation Structural Representation (ASR) module that integrates graph networks with large language models (LLMs) to preserve structural information while enhancing generative capability. This novel pipeline utilizes graph features as hierarchical prior knowledge, replacing the traditional Vision Transformer (ViT) module in multimodal large language models (MLLM) to predict full layout information for the first time. Moreover, the intermediate graph matrix used as input for the LLM is human editable, enabling progressive, human centric design generation. A comprehensive evaluation on the RICO dataset demonstrates the strong performance of ASR, both quantitatively using mean Intersection over Union (mIoU), and qualitatively through a crowdsourced user study. Additionally, sampling on relational features ensures diverse layout generation, further enhancing the adaptability and creativity of the proposed approach.
- Abstract(参考訳): 時間消費と手動レイアウト設計の複雑さは、特に異なるモバイルデバイスをまたいだ複数のアプリケーションにおいて、自動レイアウト生成を重要なタスクにしている。
既存のグラフベースのレイアウト生成アプローチは、限られた生成能力に悩まされ、しばしば不合理で互換性のない出力をもたらす。
一方、視覚に基づく生成モデルは、元の構造情報を見渡す傾向があり、コンポーネントの交叉や重なりが生じる。
これらの課題に対処するため,我々は,グラフネットワークと大規模言語モデル(LLM)を統合して構造情報を保存し,生成能力を向上するASR(Aggregation Structure Representation)モジュールを提案する。
このパイプラインはグラフ機能を階層的な事前知識として利用し、マルチモーダルな大規模言語モデル(MLLM)における従来のビジョントランスフォーマー(ViT)モジュールを置き換え、初めて完全なレイアウト情報を予測する。
さらに、LCMの入力として使用される中間グラフ行列は、人間の編集可能であり、プログレッシブで人間中心の設計生成を可能にする。
RICOデータセットに対する包括的評価は、平均的相互接続(mIoU)を定量的に用い、クラウドソーシングされたユーザスタディを通じて質的にASRの強い性能を示す。
さらに、リレーショナルな特徴のサンプリングにより、多様なレイアウト生成が保証され、提案手法の適応性と創造性がさらに向上する。
関連論文リスト
- Relational Graph Transformer [44.56132732108148]
Graph Transformer (Relel) はリレーショナルテーブル用に設計された最初のグラフトランスである。
Relelは、各ノードを5つのコンポーネントに分解する、新しい多要素トークン化戦略を採用している。
我々のアーキテクチャは、サンプル化されたサブグラフに対する局所的な注意と、学習可能なセントロイドに対するグローバルな注意を組み合わせる。
論文 参考訳(メタデータ) (2025-05-16T07:51:58Z) - Transformer-Based Multimodal Knowledge Graph Completion with Link-Aware Contexts [3.531533402602335]
マルチモーダル知識グラフ補完(MMKGC)は、マルチモーダル知識グラフ(MMKG)における欠落リンクの予測を目的とする。
既存のMMKGCアプローチは主に知識グラフ埋め込み(KGE)モデルを拡張している。
本稿では,トランスフォーマーをベースとしたKGEモデルと,事前学習したVLMが生成するクロスモーダルコンテキストを統合した新しい手法を提案する。
論文 参考訳(メタデータ) (2025-01-26T22:23:14Z) - LaVin-DiT: Large Vision Diffusion Transformer [99.98106406059333]
LaVin-DiTは、20以上のコンピュータビジョンタスクを生成フレームワークで扱うために設計された、スケーラブルで統一された基盤モデルである。
視覚タスクの生成性能を最適化するための重要なイノベーションを紹介する。
このモデルは0.1Bから3.4Bのパラメータに拡張され、様々な視覚タスクにまたがる相当なスケーラビリティと最先端の性能を示す。
論文 参考訳(メタデータ) (2024-11-18T12:05:27Z) - PosterLLaVa: Constructing a Unified Multi-modal Layout Generator with LLM [58.67882997399021]
本研究では,グラフィックレイアウトの自動生成のための統合フレームワークを提案する。
データ駆動方式では、レイアウトを生成するために構造化テキスト(JSONフォーマット)とビジュアルインストラクションチューニングを用いる。
我々は,ユーザのデザイン意図に基づいて編集可能なポスターを生成する自動テキスト投稿システムを開発した。
論文 参考訳(メタデータ) (2024-06-05T03:05:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。