論文の概要: UI Layout Generation with LLMs Guided by UI Grammar
- arxiv url: http://arxiv.org/abs/2310.15455v1
- Date: Tue, 24 Oct 2023 02:00:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 20:49:38.422901
- Title: UI Layout Generation with LLMs Guided by UI Grammar
- Title(参考訳): UI文法によるLLMによるUIレイアウト生成
- Authors: Yuwen Lu, Ziang Tong, Qinyi Zhao, Chengzhi Zhang, Toby Jia-Jun Li
- Abstract要約: 大規模言語モデル(LLM)は、研究者や産業専門家の間で関心を喚起している。
本稿では,UI画面に固有の階層構造を表現する新しいアプローチであるUI文法の導入を提案する。
本研究の目的は, LLMの生成能力の向上と, プロセスの説明可能性, 制御性の向上である。
- 参考スコア(独自算出の注目度): 13.172638190095395
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent advances in Large Language Models (LLMs) have stimulated interest
among researchers and industry professionals, particularly in their application
to tasks concerning mobile user interfaces (UIs). This position paper
investigates the use of LLMs for UI layout generation. Central to our
exploration is the introduction of UI grammar -- a novel approach we proposed
to represent the hierarchical structure inherent in UI screens. The aim of this
approach is to guide the generative capacities of LLMs more effectively and
improve the explainability and controllability of the process. Initial
experiments conducted with GPT-4 showed the promising capability of LLMs to
produce high-quality user interfaces via in-context learning. Furthermore, our
preliminary comparative study suggested the potential of the grammar-based
approach in improving the quality of generative results in specific aspects.
- Abstract(参考訳): 近年のLLM(Large Language Models)の進歩は、特にモバイルユーザインタフェース(UI)に関するタスクへの応用において、研究者や業界の専門家の間で関心を喚起している。
本稿では,UIレイアウト生成におけるLCMの利用について検討する。
調査の中心はUI文法の導入です。UI画面に固有の階層構造を表現するために提案した新しいアプローチです。
本研究の目的は, LLMの生成能力の向上と, プロセスの説明可能性, 制御性の向上である。
GPT-4で行った実験では、LLMがテキスト内学習を通じて高品質なユーザインタフェースを実現できることを示した。
さらに,本研究では,特定の側面における生成結果の品質向上に向けた文法的アプローチの可能性について予備的検討を行った。
関連論文リスト
- Enhancing Reasoning to Adapt Large Language Models for Domain-Specific Applications [4.122613733775677]
SoLOMONは、新しいニューロインスパイアされたLarge Language Model (LLM) Reasoning Networkアーキテクチャである。
本稿では,SLOMONがPmpt Engineering と In-Context Learning 技術を活用して,汎用 LLM の特殊タスクへの迅速な適応を実現する方法を示す。
その結果,SOLOMONインスタンスはLLMインスタンスのベースラインを著しく上回り,最先端の推論モデルであるo1-previewに匹敵する性能を達成した。
論文 参考訳(メタデータ) (2025-02-05T19:27:24Z) - Leveraging Multimodal LLM for Inspirational User Interface Search [12.470067381902972]
既存のAIベースのUI検索メソッドは、ターゲットユーザやアプリのムードといった重要なセマンティクスを見逃すことが多い。
我々はマルチモーダルな大言語モデル(MLLM)を用いて,モバイルUI画像から意味を抽出し,解釈した。
われわれのアプローチは既存のUI検索方法よりも優れており、UIデザイナはよりリッチでコンテキストに関連のある検索体験を提供する。
論文 参考訳(メタデータ) (2025-01-29T17:38:39Z) - Vector-ICL: In-context Learning with Continuous Vector Representations [75.96920867382859]
大規模言語モデル (LLM) はテキストデータに顕著なコンテキスト内学習能力を示す。
ブラックボックス事前学習エンコーダから得られる様々な領域から連続ベクトルに拡張できるかどうかを検討する。
特に,汎用言語モデリング目的のプロジェクタを事前学習することで,Vector-ICLの実現が期待できる。
論文 参考訳(メタデータ) (2024-10-08T02:25:38Z) - Making Text Embedders Few-Shot Learners [33.50993377494602]
本稿では,高品質なテキスト埋め込みを実現するために,少数の例を用いた新しいモデルbge-en-iclを提案する。
提案手法では,タスク関連例をクエリ側に直接統合することで,タスク間の大幅な改善を実現している。
MTEBおよびAIR-Benchベンチマークによる実験結果から,本手法がSOTA(State-of-the-art)性能を新たに設定することを示す。
論文 参考訳(メタデータ) (2024-09-24T03:30:19Z) - Instruction Finetuning for Leaderboard Generation from Empirical AI Research [0.16114012813668935]
本研究では,Large Language Models (LLMs) の命令微調整によるAI研究リーダボード生成の自動化を実証する。
それは、従来の手動のコミュニティキュレーションから移行することで、AI研究の進歩の広めを合理化することを目的としている。
論文 参考訳(メタデータ) (2024-08-19T16:41:07Z) - LEARN: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
Llm-driven knowlEdge Adaptive RecommeNdation (LEARN)フレームワークは、オープンワールドの知識と協調的な知識をシナジする。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - Large Language Models for the Automated Analysis of Optimization
Algorithms [0.9668407688201361]
最適化アルゴリズムの領域内でのLLM(Large Language Models)の可能性をSTNWebに組み込むことで実証することを目的としている。
これは、最適化アルゴリズムの挙動を可視化するサーチトラジェクトリ・ネットワーク(STN)の生成のためのWebベースのツールである。
論文 参考訳(メタデータ) (2024-02-13T14:05:02Z) - Large Language Models can Contrastively Refine their Generation for Better Sentence Representation Learning [57.74233319453229]
大規模言語モデル(LLM)は画期的な技術として登場し、それらの非並列テキスト生成能力は、基本的な文表現学習タスクへの関心を喚起している。
コーパスを生成するためにLLMの処理を分解するマルチレベルコントラスト文表現学習フレームワークであるMultiCSRを提案する。
実験の結果,MultiCSRはより高度なLCMをChatGPTの性能を超えつつ,ChatGPTに適用することで最先端の成果を得られることがわかった。
論文 参考訳(メタデータ) (2023-10-17T03:21:43Z) - Exploring Large Language Model for Graph Data Understanding in Online
Job Recommendations [63.19448893196642]
本稿では,大規模言語モデルが提供するリッチな文脈情報と意味表現を利用して行動グラフを解析する新しいフレームワークを提案する。
この機能を利用することで、個々のユーザに対してパーソナライズされた、正確なジョブレコメンデーションが可能になる。
論文 参考訳(メタデータ) (2023-07-10T11:29:41Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - Unlocking the Potential of User Feedback: Leveraging Large Language
Model as User Simulator to Enhance Dialogue System [65.93577256431125]
本稿では,ユーザガイド応答最適化 (UGRO) という代替手法を提案し,タスク指向の対話モデルと組み合わせる。
このアプローチでは、アノテーションのないユーザシミュレータとしてLLMを使用して対話応答を評価し、より小型のエンドツーエンドTODモデルと組み合わせる。
提案手法は従来のSOTA(State-of-the-art)よりも優れている。
論文 参考訳(メタデータ) (2023-06-16T13:04:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。