論文の概要: Envisioning Future Interactive Web Development: Editing Webpage with Natural Language
- arxiv url: http://arxiv.org/abs/2510.26516v1
- Date: Thu, 30 Oct 2025 14:09:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.849038
- Title: Envisioning Future Interactive Web Development: Editing Webpage with Natural Language
- Title(参考訳): 対話型Web開発の展望:自然言語によるWebページの編集
- Authors: Truong Hai Dang, Jingyu Xiao, Yintong Huo,
- Abstract要約: 本稿では,大規模言語モデルを用いてWeb編集のための高品質な微調整データセットを合成する,新しい自動データ生成パイプラインを提案する。
Instruct4Editのモデルを微調整することで、人間の意図を正確に、構造的に一貫性があり、視覚的に正確なコード変更に変換するという一貫した改善を実証する。
- 参考スコア(独自算出の注目度): 5.799436684542269
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The evolution of web applications relies on iterative code modifications, a process that is traditionally manual and time-consuming. While Large Language Models (LLMs) can generate UI code, their ability to edit existing code from new design requirements (e.g., "center the logo") remains a challenge. This is largely due to the absence of large-scale, high-quality tuning data to align model performance with human expectations. In this paper, we introduce a novel, automated data generation pipeline that uses LLMs to synthesize a high-quality fine-tuning dataset for web editing, named Instruct4Edit. Our approach generates diverse instructions, applies the corresponding code modifications, and performs visual verification to ensure correctness. By fine-tuning models on Instruct4Edit, we demonstrate consistent improvement in translating human intent into precise, structurally coherent, and visually accurate code changes. This work provides a scalable and transparent foundation for natural language based web editing, demonstrating that fine-tuning smaller open-source models can achieve competitive performance with proprietary systems. We release all data, code implementations, and model checkpoints for reproduction.
- Abstract(参考訳): Webアプリケーションの進化は、伝統的に手作業と時間を要する反復的なコード修正に依存しています。
大きな言語モデル(LLM)はUIコードを生成することができるが、新しい設計要件(例えば"ロゴの中心")から既存のコードを編集する能力は依然として課題である。
これは、モデル性能と人間の期待とを一致させる大規模で高品質なチューニングデータが欠如していることが主な原因である。
本稿では、LLMを用いてWeb編集のための高品質な微調整データセットを合成する、Instruct4Editという、新しい自動データ生成パイプラインを提案する。
提案手法は,多様な命令を生成し,対応するコード修正を適用し,正確性を確保するために視覚的検証を行う。
Instruct4Editのモデルを微調整することで、人間の意図を正確に、構造的に一貫性があり、視覚的に正確なコード変更に変換するという一貫した改善を実証する。
この作業は、自然言語ベースのWeb編集のためのスケーラブルで透明な基盤を提供し、微調整された小さなオープンソースモデルがプロプライエタリなシステムと競合するパフォーマンスを実現することを実証する。
再生のためのすべてのデータ、コード実装、モデルチェックポイントをリリースします。
関連論文リスト
- LOCOFY Large Design Models -- Design to code conversion solution [0.0]
本稿では,デザインからコードへのシームレスな変換を実現するために,デザインとWebページに特化して訓練された大規模デザインモデルを紹介した。
データエンジニアリングと適切なモデルアーキテクチャの修正を取り入れたトレーニングと推論パイプラインを開発した。
提案モデルでは, 新規なプレビューマッチスコア測定値を用いて, エンド・ツー・エンドの設計・コード変換精度を実証した。
論文 参考訳(メタデータ) (2025-07-22T03:54:57Z) - Contextually Guided Transformers via Low-Rank Adaptation [14.702057924366345]
変換器をベースとした大規模言語モデル(LLM)は、テキスト処理において優れているが、特殊な振る舞いのプロンプトに依存しているため、計算オーバーヘッドが生じる。
本稿では,モデル重みにコンテキストをエンコードすることで,明示的なプロンプトの必要性を解消するトランスフォーマーアーキテクチャの修正を提案する。
論文 参考訳(メタデータ) (2025-06-06T01:34:39Z) - RouteNator: A Router-Based Multi-Modal Architecture for Generating Synthetic Training Data for Function Calling LLMs [3.41612427812159]
デジタルコンテンツ作成ツールでは、ユーザは、API呼び出しにマップしなければならない自然言語クエリを通じて、ニーズを表現します。
既存の合成データ生成アプローチでは、実世界のデータ分散を複製することができない。
高品質な合成学習データを生成するルータベースのアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-05-15T16:53:45Z) - DreamOmni: Unified Image Generation and Editing [76.46811926046225]
本稿では,画像生成と編集の統一モデルであるDream Omniを紹介する。
訓練のためにドリーム・オムニはT2I世代と下流のタスクを共同で訓練する。
このコラボレーションは、編集性能を大幅に向上させる。
論文 参考訳(メタデータ) (2024-12-22T17:17:28Z) - Fine-Grained Verifiers: Preference Modeling as Next-token Prediction in Vision-Language Alignment [57.0121616203175]
本研究では,視覚言語アライメントを改善するための細粒度検証器として,モデル自身のビジュアルエンコーダを利用する新たな自己アライメント手法であるFiSAOを提案する。
ビジョンエンコーダからのトークンレベルのフィードバックを活用することで、FiSAOは視覚言語アライメントを大幅に改善する。
論文 参考訳(メタデータ) (2024-10-18T03:34:32Z) - GALLa: Graph Aligned Large Language Models for Improved Source Code Understanding [35.536478348255315]
最近のコード言語モデルは数十億のパラメータに拡張されているが、ソースコードはテキストトークンとしてのみモデル化されている。
GALLa - Graph Aligned Large Language Modelsで両世界のベストを尽くします。
論文 参考訳(メタデータ) (2024-09-06T10:57:34Z) - CodeGRAG: Bridging the Gap between Natural Language and Programming Language via Graphical Retrieval Augmented Generation [58.84212778960507]
CodeGRAGは、制御フローとそれらのデータフローに基づいて、コードブロックのグラフィカルなビューを構築し、プログラミングドメインの知識をよりよく解釈する。
CodeGRAGはLLMのコード生成能力を大幅に改善し、言語間コード生成のパフォーマンス向上も実現している。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。