論文の概要: CoGen: Creation of Reusable UI Components in Figma via Textual Commands
- arxiv url: http://arxiv.org/abs/2601.10536v1
- Date: Thu, 15 Jan 2026 15:57:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.208794
- Title: CoGen: Creation of Reusable UI Components in Figma via Textual Commands
- Title(参考訳): CoGen: テキストコマンドによるFigmaの再利用可能なUIコンポーネントの作成
- Authors: Ishani Kanapathipillai, Obhasha Priyankara,
- Abstract要約: CoGenは機械学習技術を使ってFigmaで再利用可能なコンポーネントを直接生成するシステムである。
このプロジェクトは、Figma APIデータ抽出、Seq2Seqモデル、コンポーネント生成のための微調整UI T5トランスフォーマーを統合する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The evolution of User Interface design has emphasized the need for efficient, reusable, and editable components to ensure an efficient design process. This research introduces CoGen, a system that uses machine learning techniques to generate reusable UI components directly in Figma, one of the most popular UI design tools. Addressing gaps in current systems, CoGen focuses on creating atomic components such as buttons, labels, and input fields using structured JSON and natural language prompts. The project integrates Figma API data extraction, Seq2Seq models, and fine-tuned T5 transformers for component generation. The key results demonstrate the efficiency of the T5 model in prompt generation, with an accuracy of 98% and a BLEU score of 0.2668, which ensures the mapping of JSON to descriptive prompts. For JSON creation, CoGen achieves a success rate of up to 100% in generating simple JSON outputs for specified component types.
- Abstract(参考訳): ユーザインタフェース設計の進化は、効率的な設計プロセスを保証するために、効率的で再利用可能な、編集可能なコンポーネントの必要性を強調してきた。
この研究は、機械学習技術を使用して、最も人気のあるUIデザインツールの1つであるFigmaで、再利用可能なUIコンポーネントを直接生成するシステムであるCoGenを紹介する。
現在のシステムのギャップに対処するため、CoGenは、構造化JSONと自然言語プロンプトを使用して、ボタン、ラベル、入力フィールドなどの原子コンポーネントを作成することに焦点を当てている。
このプロジェクトには、Figma APIデータ抽出、Seq2Seqモデル、コンポーネント生成のための微調整T5トランスフォーマーが組み込まれている。
主要な結果は、高速生成におけるT5モデルの効率性を示し、精度は98%、BLEUスコアは0.2668であり、JSONの記述的プロンプトへのマッピングを保証する。
JSON生成では、CoGenは、指定されたコンポーネントタイプに対して単純なJSON出力を生成する場合に、最大100%の成功率を達成する。
関連論文リスト
- Scaling Computer-Use Grounding via User Interface Decomposition and Synthesis [57.371814877372515]
グラフィカルユーザインタフェース(GUI)の基盤は、コンピュータ利用エージェント開発において依然として重要なボトルネックとなっている。
多様なタスクタイプにまたがる564の細かな注釈付きサンプルからなる総合ベンチマークであるOSWorld-Gを紹介する。
我々は、400万のサンプルを含む、最大のコンピュータ利用基盤データセットであるJediを合成してリリースする。
論文 参考訳(メタデータ) (2025-05-19T15:09:23Z) - Automated Parsing of Engineering Drawings for Structured Information Extraction Using a Fine-tuned Document Understanding Transformer [0.352650106994433]
本稿では,構造化情報抽出のためのハイブリッドディープラーニングフレームワークを提案する。
オブジェクト指向バウンディングボックス(OBB)モデルと変換器ベースの文書解析モデル(Donut)を統合する。
提案するフレームワークは、精度を改善し、手作業の労力を削減するとともに、精度駆動型産業におけるスケーラブルなデプロイメントをサポートする。
論文 参考訳(メタデータ) (2025-05-02T18:33:21Z) - Learning to Generate Structured Output with Schema Reinforcement Learning [83.09230124049667]
本研究では,大規模言語モデル(LLM)の構造的生成能力について検討する。
最新のLLMはまだ有効な文字列を生成するのに苦労している。
我々のモデルでは、出力と下流の両方のタスクが大幅に改善されている。
論文 参考訳(メタデータ) (2025-02-26T06:45:29Z) - JSONSchemaBench: A Rigorous Benchmark of Structured Outputs for Language Models [24.017253364927086]
制約付き復号化は、世代間構造的出力を強制する分野において支配的な技術として出現している。
本稿では,制約に順応した出力の生成効率,生成した出力の多様な品質のカバレッジという,3つの重要な領域にわたる制約付き復号手法を評価するための評価フレームワークを提案する。
我々の研究は、制約付きデコードフレームワークを改善し、制約付きデコード構造生成を評価するための新しい標準を設定するための実用的な洞察を提供する。
論文 参考訳(メタデータ) (2025-01-18T20:26:00Z) - EGFE: End-to-end Grouping of Fragmented Elements in UI Designs with
Multimodal Learning [10.885275494978478]
断片化された要素をグループ化することで、生成されたコードの可読性と保守性を大幅に向上させることができる。
現在の手法では、フラグメントされた要素をグループ化する手作りのルールを導入する2段階の戦略を採用している。
UIシークエンス予測によるエンドツーエンドのグルーピングフラグメンテッド要素の自動生成手法EGFEを提案する。
論文 参考訳(メタデータ) (2023-09-18T15:28:12Z) - Graphix-T5: Mixing Pre-Trained Transformers with Graph-Aware Layers for
Text-to-SQL Parsing [56.232873134174056]
テキストからテキストへのパースにおける大きな課題の1つはドメインの一般化である。
そこで本研究では,テキスト・トゥ・テキスト・パーシングのための特殊なコンポーネントを備えた事前学習されたテキスト・ツー・テキスト・トランスフォーマー・モデルをさらに強化する方法について検討する。
この目的のために,レイヤを持つグラフ認識モデルによって拡張された新しいアーキテクチャ GRAPHIX-T5 を提案する。
論文 参考訳(メタデータ) (2023-01-18T13:29:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。