論文の概要: CoGen: Creation of Reusable UI Components in Figma via Textual Commands
- arxiv url: http://arxiv.org/abs/2601.10536v1
- Date: Thu, 15 Jan 2026 15:57:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.208794
- Title: CoGen: Creation of Reusable UI Components in Figma via Textual Commands
- Title(参考訳): CoGen: テキストコマンドによるFigmaの再利用可能なUIコンポーネントの作成
- Authors: Ishani Kanapathipillai, Obhasha Priyankara,
- Abstract要約: CoGenは機械学習技術を使ってFigmaで再利用可能なコンポーネントを直接生成するシステムである。
このプロジェクトは、Figma APIデータ抽出、Seq2Seqモデル、コンポーネント生成のための微調整UI T5トランスフォーマーを統合する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The evolution of User Interface design has emphasized the need for efficient, reusable, and editable components to ensure an efficient design process. This research introduces CoGen, a system that uses machine learning techniques to generate reusable UI components directly in Figma, one of the most popular UI design tools. Addressing gaps in current systems, CoGen focuses on creating atomic components such as buttons, labels, and input fields using structured JSON and natural language prompts. The project integrates Figma API data extraction, Seq2Seq models, and fine-tuned T5 transformers for component generation. The key results demonstrate the efficiency of the T5 model in prompt generation, with an accuracy of 98% and a BLEU score of 0.2668, which ensures the mapping of JSON to descriptive prompts. For JSON creation, CoGen achieves a success rate of up to 100% in generating simple JSON outputs for specified component types.
- Abstract(参考訳): ユーザインタフェース設計の進化は、効率的な設計プロセスを保証するために、効率的で再利用可能な、編集可能なコンポーネントの必要性を強調してきた。
この研究は、機械学習技術を使用して、最も人気のあるUIデザインツールの1つであるFigmaで、再利用可能なUIコンポーネントを直接生成するシステムであるCoGenを紹介する。
現在のシステムのギャップに対処するため、CoGenは、構造化JSONと自然言語プロンプトを使用して、ボタン、ラベル、入力フィールドなどの原子コンポーネントを作成することに焦点を当てている。
このプロジェクトには、Figma APIデータ抽出、Seq2Seqモデル、コンポーネント生成のための微調整T5トランスフォーマーが組み込まれている。
主要な結果は、高速生成におけるT5モデルの効率性を示し、精度は98%、BLEUスコアは0.2668であり、JSONの記述的プロンプトへのマッピングを保証する。
JSON生成では、CoGenは、指定されたコンポーネントタイプに対して単純なJSON出力を生成する場合に、最大100%の成功率を達成する。
関連論文リスト
- ToolGrad: Efficient Tool-use Dataset Generation with Textual "Gradients" [53.7887350405379]
以前の作業では、まずユーザクエリを生成し、続いてDFSのような複雑なツール使用アノテーションを使用して、ツール使用のLLMデータセットを合成する。
ToolGradはこのパラダイムを逆転させるエージェントフレームワークであるToolGradを紹介します。
このアプローチは、より複雑なツールの使用、低コスト、100%パスレートで生成されたデータセットであるToolGrad-5kにつながった。
論文 参考訳(メタデータ) (2025-08-06T05:04:00Z) - Scaling Computer-Use Grounding via User Interface Decomposition and Synthesis [57.371814877372515]
グラフィカルユーザインタフェース(GUI)の基盤は、コンピュータ利用エージェント開発において依然として重要なボトルネックとなっている。
多様なタスクタイプにまたがる564の細かな注釈付きサンプルからなる総合ベンチマークであるOSWorld-Gを紹介する。
我々は、400万のサンプルを含む、最大のコンピュータ利用基盤データセットであるJediを合成してリリースする。
論文 参考訳(メタデータ) (2025-05-19T15:09:23Z) - Automated Parsing of Engineering Drawings for Structured Information Extraction Using a Fine-tuned Document Understanding Transformer [0.352650106994433]
本稿では,構造化情報抽出のためのハイブリッドディープラーニングフレームワークを提案する。
オブジェクト指向バウンディングボックス(OBB)モデルと変換器ベースの文書解析モデル(Donut)を統合する。
提案するフレームワークは、精度を改善し、手作業の労力を削減するとともに、精度駆動型産業におけるスケーラブルなデプロイメントをサポートする。
論文 参考訳(メタデータ) (2025-05-02T18:33:21Z) - Learning to Generate Structured Output with Schema Reinforcement Learning [83.09230124049667]
本研究では,大規模言語モデル(LLM)の構造的生成能力について検討する。
最新のLLMはまだ有効な文字列を生成するのに苦労している。
我々のモデルでは、出力と下流の両方のタスクが大幅に改善されている。
論文 参考訳(メタデータ) (2025-02-26T06:45:29Z) - JSONSchemaBench: A Rigorous Benchmark of Structured Outputs for Language Models [24.017253364927086]
制約付き復号化は、世代間構造的出力を強制する分野において支配的な技術として出現している。
本稿では,制約に順応した出力の生成効率,生成した出力の多様な品質のカバレッジという,3つの重要な領域にわたる制約付き復号手法を評価するための評価フレームワークを提案する。
我々の研究は、制約付きデコードフレームワークを改善し、制約付きデコード構造生成を評価するための新しい標準を設定するための実用的な洞察を提供する。
論文 参考訳(メタデータ) (2025-01-18T20:26:00Z) - Automatically Generating UI Code from Screenshot: A Divide-and-Conquer-Based Approach [51.522121376987634]
ウェブページデザインのUIコードへの変換を自動化するための分割型アプローチであるDCGenを提案する。
我々は,DCGenの視覚的類似度は最大15%向上し,コード類似度は8%向上したことを示す。
人間の評価によると、DCGenは開発者がUI設計と非常によく似たWebページを実装するのに役立つ。
論文 参考訳(メタデータ) (2024-06-24T07:58:36Z) - PosterLLaVa: Constructing a Unified Multi-modal Layout Generator with LLM [58.67882997399021]
本研究では,グラフィックレイアウトの自動生成のための統合フレームワークを提案する。
データ駆動方式では、レイアウトを生成するために構造化テキスト(JSONフォーマット)とビジュアルインストラクションチューニングを用いる。
我々は,ユーザのデザイン意図に基づいて編集可能なポスターを生成する自動テキスト投稿システムを開発した。
論文 参考訳(メタデータ) (2024-06-05T03:05:52Z) - EGFE: End-to-end Grouping of Fragmented Elements in UI Designs with
Multimodal Learning [10.885275494978478]
断片化された要素をグループ化することで、生成されたコードの可読性と保守性を大幅に向上させることができる。
現在の手法では、フラグメントされた要素をグループ化する手作りのルールを導入する2段階の戦略を採用している。
UIシークエンス予測によるエンドツーエンドのグルーピングフラグメンテッド要素の自動生成手法EGFEを提案する。
論文 参考訳(メタデータ) (2023-09-18T15:28:12Z) - Boosting GUI Prototyping with Diffusion Models [0.440401067183266]
Stable Diffusionのようなディープラーニングモデルは、強力なテキスト・ツー・イメージツールとして登場した。
安定拡散を利用してモバイルUIを生成するアプローチであるUI-Diffuserを提案する。
予備的な結果は、UI-DiffuserがモバイルGUI設計を生成するための効率的でコスト効率の良い方法を提供することを示している。
論文 参考訳(メタデータ) (2023-06-09T20:08:46Z) - Graphix-T5: Mixing Pre-Trained Transformers with Graph-Aware Layers for
Text-to-SQL Parsing [56.232873134174056]
テキストからテキストへのパースにおける大きな課題の1つはドメインの一般化である。
そこで本研究では,テキスト・トゥ・テキスト・パーシングのための特殊なコンポーネントを備えた事前学習されたテキスト・ツー・テキスト・トランスフォーマー・モデルをさらに強化する方法について検討する。
この目的のために,レイヤを持つグラフ認識モデルによって拡張された新しいアーキテクチャ GRAPHIX-T5 を提案する。
論文 参考訳(メタデータ) (2023-01-18T13:29:05Z) - UIBert: Learning Generic Multimodal Representations for UI Understanding [12.931540149350633]
大規模な未ラベルUIデータに対する新しい事前学習タスクによって訓練されたトランスフォーマーベースの共同画像テキストモデルを提案する。
私たちの重要な直感は、UIの異種機能は自己整合である、つまり、UIコンポーネントのイメージとテキスト機能は、相互に予測可能である、ということです。
この自己アライメントを利用した5つの事前学習タスクを提案する。
UIBertは、最大9.26%の精度で強力なマルチモーダルベースラインを上回ります。
論文 参考訳(メタデータ) (2021-07-29T03:51:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。