論文の概要: UI Layout Generation with LLMs Guided by UI Grammar
- arxiv url: http://arxiv.org/abs/2310.15455v1
- Date: Tue, 24 Oct 2023 02:00:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 20:49:38.422901
- Title: UI Layout Generation with LLMs Guided by UI Grammar
- Title(参考訳): UI文法によるLLMによるUIレイアウト生成
- Authors: Yuwen Lu, Ziang Tong, Qinyi Zhao, Chengzhi Zhang, Toby Jia-Jun Li
- Abstract要約: 大規模言語モデル(LLM)は、研究者や産業専門家の間で関心を喚起している。
本稿では,UI画面に固有の階層構造を表現する新しいアプローチであるUI文法の導入を提案する。
本研究の目的は, LLMの生成能力の向上と, プロセスの説明可能性, 制御性の向上である。
- 参考スコア(独自算出の注目度): 13.172638190095395
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent advances in Large Language Models (LLMs) have stimulated interest
among researchers and industry professionals, particularly in their application
to tasks concerning mobile user interfaces (UIs). This position paper
investigates the use of LLMs for UI layout generation. Central to our
exploration is the introduction of UI grammar -- a novel approach we proposed
to represent the hierarchical structure inherent in UI screens. The aim of this
approach is to guide the generative capacities of LLMs more effectively and
improve the explainability and controllability of the process. Initial
experiments conducted with GPT-4 showed the promising capability of LLMs to
produce high-quality user interfaces via in-context learning. Furthermore, our
preliminary comparative study suggested the potential of the grammar-based
approach in improving the quality of generative results in specific aspects.
- Abstract(参考訳): 近年のLLM(Large Language Models)の進歩は、特にモバイルユーザインタフェース(UI)に関するタスクへの応用において、研究者や業界の専門家の間で関心を喚起している。
本稿では,UIレイアウト生成におけるLCMの利用について検討する。
調査の中心はUI文法の導入です。UI画面に固有の階層構造を表現するために提案した新しいアプローチです。
本研究の目的は, LLMの生成能力の向上と, プロセスの説明可能性, 制御性の向上である。
GPT-4で行った実験では、LLMがテキスト内学習を通じて高品質なユーザインタフェースを実現できることを示した。
さらに,本研究では,特定の側面における生成結果の品質向上に向けた文法的アプローチの可能性について予備的検討を行った。
関連論文リスト
- Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
大規模テキストコーパスで事前訓練されたLarge Language Models (LLMs) は、推奨システムを強化するための有望な道を示す。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - Emerging Synergies Between Large Language Models and Machine Learning in
Ecommerce Recommendations [19.405233437533713]
大規模言語モデル(LLM)は、言語理解と生成の基本的なタスクにおいて優れた機能を持つ。
機能エンコーダとしてLLMを用いたユーザとアイテムの表現を学習するための代表的なアプローチを提案する。
次に、協調フィルタリング強化レコメンデーションシステムのためのLLM技術の最新技術について概説した。
論文 参考訳(メタデータ) (2024-03-05T08:31:00Z) - Large Language Models for the Automated Analysis of Optimization
Algorithms [0.9668407688201361]
最適化アルゴリズムの領域内でのLLM(Large Language Models)の可能性をSTNWebに組み込むことで実証することを目的としている。
これは、最適化アルゴリズムの挙動を可視化するサーチトラジェクトリ・ネットワーク(STN)の生成のためのWebベースのツールである。
論文 参考訳(メタデータ) (2024-02-13T14:05:02Z) - Effort and Size Estimation in Software Projects with Large Language
Model-based Intelligent Interfaces [0.421802966720434]
我々は,開発作業の見積もりを可能にする自然言語ベースの質問の仕様を強化する新しい方法を提案する。
本稿では,従来の手法との比較を行い,自然言語に基づく質問の仕様を強化する新しい方法を提案する。
論文 参考訳(メタデータ) (2024-02-11T11:03:08Z) - Instruction Tuning for Large Language Models: A Survey [52.86322823501338]
我々は、ITの一般的な方法論、ITデータセットの構築、ITモデルのトレーニング、異なるモダリティ、ドメイン、アプリケーションへのアプリケーションを含む、文献を体系的にレビューする。
また、ITの潜在的な落とし穴とそれに対する批判、および既存の戦略の現在の欠陥を指摘し、実りある研究の道筋を提案する。
論文 参考訳(メタデータ) (2023-08-21T15:35:16Z) - Exploring Large Language Model for Graph Data Understanding in Online
Job Recommendations [63.19448893196642]
本稿では,大規模言語モデルが提供するリッチな文脈情報と意味表現を利用して行動グラフを解析する新しいフレームワークを提案する。
この機能を利用することで、個々のユーザに対してパーソナライズされた、正確なジョブレコメンデーションが可能になる。
論文 参考訳(メタデータ) (2023-07-10T11:29:41Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - Query Understanding in the Age of Large Language Models [6.630482733703617]
大規模言語モデル(LLM)を用いた対話型クエリ書き換えのための汎用フレームワークについて述べる。
我々のフレームワークの重要な側面は、自然言語で検索エンジンによって機械の意図を完全に指定できるリライタの能力である。
この対話型クエリ理解フレームワークに対するオープンな質問とともに、最初の実験を背景としたコンセプトを詳述する。
論文 参考訳(メタデータ) (2023-06-28T08:24:14Z) - Unlocking the Potential of User Feedback: Leveraging Large Language
Model as User Simulator to Enhance Dialogue System [65.93577256431125]
本稿では,ユーザガイド応答最適化 (UGRO) という代替手法を提案し,タスク指向の対話モデルと組み合わせる。
このアプローチでは、アノテーションのないユーザシミュレータとしてLLMを使用して対話応答を評価し、より小型のエンドツーエンドTODモデルと組み合わせる。
提案手法は従来のSOTA(State-of-the-art)よりも優れている。
論文 参考訳(メタデータ) (2023-06-16T13:04:56Z) - PRISMA-DFLLM: An Extension of PRISMA for Systematic Literature Reviews
using Domain-specific Finetuned Large Language Models [0.0]
本稿では,Large Language Models(LLMs)のパワーと,PRISMA(Preferred Reporting Items for Systematic Reviews and Meta-Analyses)の厳密な報告ガイドラインを組み合わせたAI対応方法論フレームワークを提案する。
厳密なSLRプロセスの結果として選択されたドメイン固有の学術論文にLCMを微調整することにより、提案するPRISMA-DFLLMレポートガイドラインは、より効率、再利用性、拡張性を達成する可能性を秘めている。
論文 参考訳(メタデータ) (2023-06-15T02:52:50Z) - Towards Building the Federated GPT: Federated Instruction Tuning [66.7900343035733]
本稿では,大規模言語モデル(LLM)の命令チューニングのための学習フレームワークとして,FedIT(Federated Instruction Tuning)を紹介する。
我々は,FedITを用いてクライアントの終端における多種多様な命令セットを活用することにより,ローカル命令のみを限定した集中学習に比べ,LLMの性能を向上させることを実証した。
論文 参考訳(メタデータ) (2023-05-09T17:42:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。