論文の概要: Controllable GUI Exploration
- arxiv url: http://arxiv.org/abs/2502.03330v1
- Date: Wed, 05 Feb 2025 16:25:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-06 14:28:08.766809
- Title: Controllable GUI Exploration
- Title(参考訳): 制御可能なGUI探索
- Authors: Aryan Garg, Yue Jiang, Antti Oulasvirta,
- Abstract要約: 設計ツールは、必要以上に詳細を指定することを主張するため、しばしば失敗する。
生成AIの最近の進歩は、この問題の解決への期待を高めているが、プロンプトで緩やかな考えを表現することは現実的ではないため失敗している。
本稿では,低次元スケッチ生成への拡散に基づくアプローチを提案する。
- 参考スコア(独自算出の注目度): 27.000567061579726
- License:
- Abstract: During the early stages of interface design, designers need to produce multiple sketches to explore a design space. Design tools often fail to support this critical stage, because they insist on specifying more details than necessary. Although recent advances in generative AI have raised hopes of solving this issue, in practice they fail because expressing loose ideas in a prompt is impractical. In this paper, we propose a diffusion-based approach to the low-effort generation of interface sketches. It breaks new ground by allowing flexible control of the generation process via three types of inputs: A) prompts, B) wireframes, and C) visual flows. The designer can provide any combination of these as input at any level of detail, and will get a diverse gallery of low-fidelity solutions in response. The unique benefit is that large design spaces can be explored rapidly with very little effort in input-specification. We present qualitative results for various combinations of input specifications. Additionally, we demonstrate that our model aligns more accurately with these specifications than other models.
- Abstract(参考訳): インターフェース設計の初期段階では、設計者は設計空間を探索するために複数のスケッチを作成する必要がある。
設計ツールは、必要以上に詳細を指定することを主張するため、この重要なステージをサポートしないことが多い。
生成AIの最近の進歩はこの問題の解決への期待を高めているが、実際には、緩やかなアイデアをプロンプトで表現することは現実的ではないため失敗している。
本稿では,低効率なインタフェーススケッチ生成に対する拡散に基づくアプローチを提案する。
A)プロンプト、B)ワイヤフレーム、C)ビジュアルフローの3つのタイプを通じて生成プロセスのフレキシブルな制御を可能にすることで、新しい基盤を壊します。
デザイナーはこれらの組み合わせをどんなレベルででもインプットとして提供でき、それに応じて様々な低忠実度ソリューションのギャラリーが提供される。
ユニークな利点は、大きな設計空間が入力特異化にほとんど努力することなく迅速に探索できることである。
入力仕様の様々な組み合わせについて定性的な結果を示す。
さらに、我々のモデルは、他のモデルよりもこれらの仕様とより正確に一致していることを示す。
関連論文リスト
- T$^3$-S2S: Training-free Triplet Tuning for Sketch to Scene Generation [56.054622766743414]
本研究では,Sketch-to-Scene (T3-S2S) 生成のためのトレーニング不要トリプルトチューニングを提案する。
プロンプトバランスモジュールによるキーワード表現を強化し、クリティカルなインスタンスが欠落するリスクを低減する。
実験により,既存のスケッチ・ツー・イメージモデルの性能が大幅に向上することが確認された。
論文 参考訳(メタデータ) (2024-12-18T04:01:32Z) - DiffDesign: Controllable Diffusion with Meta Prior for Efficient Interior Design Generation [25.532400438564334]
DiffDesignは、メタプリミティブを持つ制御可能な拡散モデルであり、効率的な内部設計生成を実現する。
具体的には,画像データセット上で事前学習した2次元拡散モデルの生成先行をレンダリングバックボーンとして利用する。
さらに、外観、ポーズ、サイズといったデザイン属性を横断的に制御し、視点整合性を強制する最適な転送ベースのアライメントモジュールを導入することで、デノナイジングプロセスをガイドする。
論文 参考訳(メタデータ) (2024-11-25T11:36:34Z) - Sketch2Code: Evaluating Vision-Language Models for Interactive Web Design Prototyping [55.98643055756135]
初歩的なスケッチのWebページプロトタイプへの変換を自動化する上で,最先端のビジョン言語モデル(VLM)を評価するベンチマークであるSketch2Codeを紹介した。
我々は、既存のVLMではSketch2Codeが困難であることを示す10の商用およびオープンソースモデルを分析した。
UI/UXの専門家によるユーザ調査では、受動的フィードバックの受信よりも、積極的に質問を行うのがかなり好まれている。
論文 参考訳(メタデータ) (2024-10-21T17:39:49Z) - CAD-Prompted Generative Models: A Pathway to Feasible and Novel Engineering Designs [4.806185947218336]
本稿では,実現可能なCAD画像の生成を促すことによって,設計の実現可能性を向上させる手法を提案する。
その結果、CAD画像のプロンプトは、Stable Diffusion 2.1のようなテキストから画像への変換に有効であることが示されている。
論文 参考訳(メタデータ) (2024-07-11T17:07:32Z) - DiCTI: Diffusion-based Clothing Designer via Text-guided Input [5.275658744475251]
DiCTI (Diffusion-based Clothing Designer via Text-guided Input)は、デザイナーがテキスト入力のみを使用してファッション関連のアイデアを素早く視覚化できるようにする。
テキスト入力に条件付けされた強力な拡散ベースの塗装モデルを活用することで、DICTIは、さまざまな衣料デザインで、説得力のある高品質な画像を合成することができる。
論文 参考訳(メタデータ) (2024-07-04T12:48:36Z) - PosterLLaVa: Constructing a Unified Multi-modal Layout Generator with LLM [58.67882997399021]
本研究では,グラフィックレイアウトの自動生成のための統合フレームワークを提案する。
データ駆動方式では、レイアウトを生成するために構造化テキスト(JSONフォーマット)とビジュアルインストラクションチューニングを用いる。
我々は,ユーザのデザイン意図に基づいて編集可能なポスターを生成する自動テキスト投稿システムを開発した。
論文 参考訳(メタデータ) (2024-06-05T03:05:52Z) - Towards Aligned Layout Generation via Diffusion Model with Aesthetic Constraints [53.66698106829144]
広い範囲のレイアウト生成タスクを処理する統一モデルを提案する。
このモデルは連続拡散モデルに基づいている。
実験結果から,LACEは高品質なレイアウトを生成することがわかった。
論文 参考訳(メタデータ) (2024-02-07T11:12:41Z) - Compositional Generative Inverse Design [69.22782875567547]
入力変数を設計して目的関数を最適化する逆設計は重要な問題である。
拡散モデルにより得られた学習エネルギー関数を最適化することにより、そのような逆例を避けることができることを示す。
N-body 相互作用タスクと2次元多面体設計タスクにおいて,実験時に学習した拡散モデルを構成することにより,初期状態と境界形状を設計できることを示す。
論文 参考訳(メタデータ) (2024-01-24T01:33:39Z) - LayoutDETR: Detection Transformer Is a Good Multimodal Layout Designer [80.61492265221817]
グラフィックレイアウトデザインは視覚コミュニケーションにおいて重要な役割を担っている。
しかし、手作りのレイアウトデザインは、スキルを要求し、時間がかかり、バッチプロダクションではスケールできない。
ジェネレーティブモデルは、設計自動化をスケーラブルにするために出現するが、デザイナの欲求に沿うデザインを作成することは、未だに容易ではない。
論文 参考訳(メタデータ) (2022-12-19T21:57:35Z) - iPLAN: Interactive and Procedural Layout Planning [13.172253981084403]
そこで本研究では,新しいループ生成モデルiPLANを提案する。
レイアウトを自動的に生成するだけでなく、プロセス全体を通してデザイナと対話することも可能だ。
以上の結果から,iPLANは人間設計者と同様のレイアウトを作成できる可能性が示唆された。
論文 参考訳(メタデータ) (2022-03-27T23:21:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。