論文の概要: Aggregated Structural Representation with Large Language Models for Human-Centric Layout Generation
- arxiv url: http://arxiv.org/abs/2505.19554v1
- Date: Mon, 26 May 2025 06:17:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.207045
- Title: Aggregated Structural Representation with Large Language Models for Human-Centric Layout Generation
- Title(参考訳): 大規模言語モデルを用いた人中心レイアウト生成のための集約構造表現
- Authors: Jiongchao Jin, Shengchu Zhao, Dajun Chen, Wei Jiang, Yong Li,
- Abstract要約: 本稿では,グラフネットワークを大規模言語モデル (LLM) と統合して構造情報を保存し,生成能力を向上するアグリゲーション構造表現 (ASR) モジュールを提案する。
RICOデータセットに対する包括的評価は、平均的相互接続(mIoU)と、クラウドソーシングによるユーザスタディによる定性の両方を用いて、ASRの強い性能を示す。
- 参考スコア(独自算出の注目度): 7.980497203230983
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time consumption and the complexity of manual layout design make automated layout generation a critical task, especially for multiple applications across different mobile devices. Existing graph-based layout generation approaches suffer from limited generative capability, often resulting in unreasonable and incompatible outputs. Meanwhile, vision based generative models tend to overlook the original structural information, leading to component intersections and overlaps. To address these challenges, we propose an Aggregation Structural Representation (ASR) module that integrates graph networks with large language models (LLMs) to preserve structural information while enhancing generative capability. This novel pipeline utilizes graph features as hierarchical prior knowledge, replacing the traditional Vision Transformer (ViT) module in multimodal large language models (MLLM) to predict full layout information for the first time. Moreover, the intermediate graph matrix used as input for the LLM is human editable, enabling progressive, human centric design generation. A comprehensive evaluation on the RICO dataset demonstrates the strong performance of ASR, both quantitatively using mean Intersection over Union (mIoU), and qualitatively through a crowdsourced user study. Additionally, sampling on relational features ensures diverse layout generation, further enhancing the adaptability and creativity of the proposed approach.
- Abstract(参考訳): 時間消費と手動レイアウト設計の複雑さは、特に異なるモバイルデバイスをまたいだ複数のアプリケーションにおいて、自動レイアウト生成を重要なタスクにしている。
既存のグラフベースのレイアウト生成アプローチは、限られた生成能力に悩まされ、しばしば不合理で互換性のない出力をもたらす。
一方、視覚に基づく生成モデルは、元の構造情報を見渡す傾向があり、コンポーネントの交叉や重なりが生じる。
これらの課題に対処するため,我々は,グラフネットワークと大規模言語モデル(LLM)を統合して構造情報を保存し,生成能力を向上するASR(Aggregation Structure Representation)モジュールを提案する。
このパイプラインはグラフ機能を階層的な事前知識として利用し、マルチモーダルな大規模言語モデル(MLLM)における従来のビジョントランスフォーマー(ViT)モジュールを置き換え、初めて完全なレイアウト情報を予測する。
さらに、LCMの入力として使用される中間グラフ行列は、人間の編集可能であり、プログレッシブで人間中心の設計生成を可能にする。
RICOデータセットに対する包括的評価は、平均的相互接続(mIoU)を定量的に用い、クラウドソーシングされたユーザスタディを通じて質的にASRの強い性能を示す。
さらに、リレーショナルな特徴のサンプリングにより、多様なレイアウト生成が保証され、提案手法の適応性と創造性がさらに向上する。
関連論文リスト
- MAGE: Multimodal Alignment and Generation Enhancement via Bridging Visual and Semantic Spaces [23.447713697204225]
MAGEは、革新的なアライメント機構を通じて視覚とテキストの意味空間をブリッジする新しいフレームワークである。
我々は、クロスエントロピーと平均二乗誤差を組み合わせたトレーニング戦略を採用し、アライメント効果を著しく向上させる。
提案するマルチモーダル大規模モデルアーキテクチャであるMAGEは,様々な評価ベンチマークにおける類似の手法と比較して,性能が大幅に向上した。
論文 参考訳(メタデータ) (2025-07-29T12:17:46Z) - Assemble Your Crew: Automatic Multi-agent Communication Topology Design via Autoregressive Graph Generation [72.44384066166147]
大規模言語モデル(LLM)に基づくマルチエージェントシステム(MAS)は、多様な領域にわたる複雑な問題を扱うための強力なソリューションとして登場した。
既存のアプローチは、事前に定義されたエージェントセットとハードコードされた相互作用構造を持つテンプレートグラフ修正パラダイムに依存しているため、基本的に制限されている。
協調グラフをスクラッチから構築することで、このパラダイムを運用する新しい自己回帰モデルであるARG-Designerを提案する。
論文 参考訳(メタデータ) (2025-07-24T09:17:41Z) - Relational Deep Learning: Challenges, Foundations and Next-Generation Architectures [50.46688111973999]
グラフ機械学習は、任意のグラフ構造化データで学習するモデルの能力を大幅に向上させた。
従来の工学的特徴を伴わない'関係エンティティグラフ'のエンドツーエンド表現を可能にする新しい青写真を提案する。
本稿では、大規模マルチテーブル統合や、時間力学と異種データのモデリングの複雑さなど、重要な課題について論じる。
論文 参考訳(メタデータ) (2025-06-19T23:51:38Z) - Relation-Aware Graph Foundation Model [21.86954503656643]
グラフ基礎モデル (GFMs) がグラフ学習において有望な方向として登場した。
明示的なトークン表現に依存する言語モデルとは異なり、グラフは一般化のための明確に定義された単位を持たない。
GFMの基本単位として関係トークンを利用する新しいフレームワークREEFを提案する。
論文 参考訳(メタデータ) (2025-05-17T14:34:41Z) - Relational Graph Transformer [44.56132732108148]
Graph Transformer (Relel) はリレーショナルテーブル用に設計された最初のグラフトランスである。
Relelは、各ノードを5つのコンポーネントに分解する、新しい多要素トークン化戦略を採用している。
我々のアーキテクチャは、サンプル化されたサブグラフに対する局所的な注意と、学習可能なセントロイドに対するグローバルな注意を組み合わせる。
論文 参考訳(メタデータ) (2025-05-16T07:51:58Z) - Transformer-Based Multimodal Knowledge Graph Completion with Link-Aware Contexts [3.531533402602335]
マルチモーダル知識グラフ補完(MMKGC)は、マルチモーダル知識グラフ(MMKG)における欠落リンクの予測を目的とする。
既存のMMKGCアプローチは主に知識グラフ埋め込み(KGE)モデルを拡張している。
本稿では,トランスフォーマーをベースとしたKGEモデルと,事前学習したVLMが生成するクロスモーダルコンテキストを統合した新しい手法を提案する。
論文 参考訳(メタデータ) (2025-01-26T22:23:14Z) - LaVin-DiT: Large Vision Diffusion Transformer [99.98106406059333]
LaVin-DiTは、20以上のコンピュータビジョンタスクを生成フレームワークで扱うために設計された、スケーラブルで統一された基盤モデルである。
視覚タスクの生成性能を最適化するための重要なイノベーションを紹介する。
このモデルは0.1Bから3.4Bのパラメータに拡張され、様々な視覚タスクにまたがる相当なスケーラビリティと最先端の性能を示す。
論文 参考訳(メタデータ) (2024-11-18T12:05:27Z) - PosterLLaVa: Constructing a Unified Multi-modal Layout Generator with LLM [58.67882997399021]
本研究では,グラフィックレイアウトの自動生成のための統合フレームワークを提案する。
データ駆動方式では、レイアウトを生成するために構造化テキスト(JSONフォーマット)とビジュアルインストラクションチューニングを用いる。
我々は,ユーザのデザイン意図に基づいて編集可能なポスターを生成する自動テキスト投稿システムを開発した。
論文 参考訳(メタデータ) (2024-06-05T03:05:52Z) - UniDiff: Advancing Vision-Language Models with Generative and
Discriminative Learning [86.91893533388628]
本稿では、画像テキストコントラスト学習(ITC)、テキスト条件付き画像合成学習(IS)、相互意味整合性モデリング(RSC)を統合した統合マルチモーダルモデルUniDiffを提案する。
UniDiffはマルチモーダル理解と生成タスクの両方において汎用性を示す。
論文 参考訳(メタデータ) (2023-06-01T15:39:38Z) - SIM-Trans: Structure Information Modeling Transformer for Fine-grained
Visual Categorization [59.732036564862796]
本稿では,オブジェクト構造情報を変換器に組み込んだSIM-Trans(Structure Information Modeling Transformer)を提案する。
提案した2つのモジュールは軽量化されており、任意のトランスフォーマーネットワークにプラグインでき、エンドツーエンドで容易に訓練できる。
実験と解析により,提案したSIM-Transが細粒度視覚分類ベンチマークの最先端性能を達成することを示した。
論文 参考訳(メタデータ) (2022-08-31T03:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。