論文の概要: Improving User Interface Generation Models from Designer Feedback
- arxiv url: http://arxiv.org/abs/2509.16779v1
- Date: Sat, 20 Sep 2025 19:02:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.971853
- Title: Improving User Interface Generation Models from Designer Feedback
- Title(参考訳): デザイナーフィードバックによるユーザインタフェース生成モデルの改善
- Authors: Jason Wu, Amanda Swearngin, Arun Krishna Vajjala, Alan Leung, Jeffrey Nichols, Titus Barik,
- Abstract要約: UI生成のパフォーマンス向上には,デザイナからのフィードバックが不可欠だ。
評価やランキングに基づく既存の手法は,設計者の理屈とよく一致していないことがわかった。
- 参考スコア(独自算出の注目度): 9.027073356362182
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite being trained on vast amounts of data, most LLMs are unable to reliably generate well-designed UIs. Designer feedback is essential to improving performance on UI generation; however, we find that existing RLHF methods based on ratings or rankings are not well-aligned with designers' workflows and ignore the rich rationale used to critique and improve UI designs. In this paper, we investigate several approaches for designers to give feedback to UI generation models, using familiar interactions such as commenting, sketching and direct manipulation. We first perform a study with 21 designers where they gave feedback using these interactions, which resulted in ~1500 design annotations. We then use this data to finetune a series of LLMs to generate higher quality UIs. Finally, we evaluate these models with human judges, and we find that our designer-aligned approaches outperform models trained with traditional ranking feedback and all tested baselines, including GPT-5.
- Abstract(参考訳): 膨大な量のデータでトレーニングされているにもかかわらず、ほとんどのLLMは、よく設計されたUIを確実に生成することができない。
UI生成のパフォーマンス向上にはデザイナからのフィードバックが不可欠ですが,評価やランキングに基づく既存のRLHFメソッドはデザイナのワークフローと整合性がなく,UI設計を批判し,改善するための豊富な根拠を無視しているのです。
本稿では,デザイナーがUI生成モデルにフィードバックを与えるためのいくつかのアプローチについて,コメントやスケッチ,ダイレクト操作といった慣れ親しんだインタラクションを用いて検討する。
私たちはまず21人のデザイナーを対象に研究を行い、これらのインタラクションを使ってフィードバックを与えました。
次に、このデータを使って一連のLCMを微調整し、高品質なUIを生成します。
最後に、これらのモデルを人間の判断で評価し、従来のランク付けフィードバックとGPT-5を含む全てのテストベースラインで訓練されたモデルよりも優れた設計者のアプローチが得られた。
関連論文リスト
- UICrit: Enhancing Automated Design Evaluation with a UICritique Dataset [10.427243347670965]
983のモバイルUIに対して,設計批判と品質評価をターゲットとしたデータセットを提示する。
LLM生成UIフィードバックにおける55%のパフォーマンス向上を実現するために,このデータセットを適用した。
生成UI技術に対する報酬モデルのトレーニングを含む,このデータセットの今後の応用について論じる。
論文 参考訳(メタデータ) (2024-07-11T20:18:19Z) - Leveraging Human Revisions for Improving Text-to-Layout Models [16.617352120973806]
我々は,より強力なアライメントのための人間のリビジョンの形で,ニュアンスフィードバックを用いることを提案する。
我々の手法であるRevision-Aware Reward Modelsは、生成テキストからテキストへのモデルにより、よりモダンでデザイナに準拠したレイアウトを生成する。
論文 参考訳(メタデータ) (2024-05-16T01:33:09Z) - UIClip: A Data-driven Model for Assessing User Interface Design [20.66914084220734]
ユーザインタフェースの設計品質と視覚的関連性を評価するための機械学習モデルUIClipを開発した。
UIClipがUI設計品質の即時評価に依存するダウンストリームアプリケーションをどのように促進するかを示す。
論文 参考訳(メタデータ) (2024-04-18T20:43:08Z) - Personalized Language Modeling from Personalized Human Feedback [45.16986573937782]
パーソナライズされた大規模言語モデル(LLM)は、個々のユーザの好みに応答するように設計されている。
個人の好みを捉えるために軽量なユーザモデルを利用する効率的なフレームワークであるPersonalized-RLHFを提案する。
P-RLHF を用いて学習したパーソナライズされた LLM は,個々のユーザの好みとより密に一致した応答を生成する。
論文 参考訳(メタデータ) (2024-02-06T04:18:58Z) - UltraFeedback: Boosting Language Models with Scaled AI Feedback [99.4633351133207]
大規模で高品質で多様なAIフィードバックデータセットである textscUltraFeedback を提示する。
我々の研究は、強力なオープンソースのチャット言語モデルを構築する上で、スケールしたAIフィードバックデータの有効性を検証する。
論文 参考訳(メタデータ) (2023-10-02T17:40:01Z) - System-Level Natural Language Feedback [83.24259100437965]
システムレベルの設計決定を人為的なループプロセスで形式化する上で,フィードバックの活用方法を示す。
検索クエリと対話応答生成を改善するために,本手法のケーススタディを2つ実施する。
システムレベルのフィードバックとインスタンスレベルのフィードバックの組み合わせは、さらなる利益をもたらします。
論文 参考訳(メタデータ) (2023-06-23T16:21:40Z) - Chain of Hindsight Aligns Language Models with Feedback [62.68665658130472]
我々は,その極性に関係なく,任意の形式のフィードバックから学習し,最適化が容易な新しい手法であるChain of Hindsightを提案する。
我々は、あらゆる種類のフィードバックを文のシーケンスに変換し、それをモデルを微調整するために使用する。
そうすることで、モデルはフィードバックに基づいて出力を生成するように訓練され、負の属性やエラーを特定し修正する。
論文 参考訳(メタデータ) (2023-02-06T10:28:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。