論文の概要: Evaluation of Sketch-Based and Semantic-Based Modalities for Mockup
Generation
- arxiv url: http://arxiv.org/abs/2303.12709v1
- Date: Wed, 22 Mar 2023 16:47:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 13:27:56.663836
- Title: Evaluation of Sketch-Based and Semantic-Based Modalities for Mockup
Generation
- Title(参考訳): モックアップ生成のためのスケッチベースおよびセマンティックベースモードの評価
- Authors: Tommaso Cal\`o and Luigi De Russis
- Abstract要約: デザインモックアップ(Design mockup)は、デザインのアイデアを視覚化し、テストするために欠かせない道具である。
手描きスケッチに基づいてモックアップを生成するための2つの異なるモックアップを提示・評価する。
その結果,スケッチベースの生成の方が直感的かつ表現的であり,セマンティックベースの生成AIは質と忠実度でより良い結果が得られることがわかった。
- 参考スコア(独自算出の注目度): 15.838427479984926
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Design mockups are essential instruments for visualizing and testing design
ideas. However, the process of generating mockups can be time-consuming and
challenging for designers. In this article, we present and evaluate two
different modalities for generating mockup ideas to support designers in their
work: (1) a sketch-based approach to generate mockups based on hand-drawn
sketches, and (2) a semantic-based approach to generate interfaces based on a
set of predefined design elements. To evaluate the effectiveness of these two
approaches, we conducted a series of experiments with 13 participants in which
we asked them to generate mockups using each modality. Our results show that
sketch-based generation was more intuitive and expressive, while semantic-based
generative AI obtained better results in terms of quality and fidelity. Both
methods can be valuable tools for UI designers looking to increase their
creativity and efficiency.
- Abstract(参考訳): デザインモックアップはデザインのアイデアを視覚化し、テストするための重要な道具です。
しかし、モックアップを生成するプロセスは、デザイナーにとって時間がかかり、困難である。
本稿では,(1)手書きスケッチに基づいてモックアップを生成するスケッチベースアプローチ,(2)事前に定義された設計要素の集合に基づいてインターフェースを生成するセマンティックベースアプローチという,モックアップのアイデアを生成するための2つの異なるモックアップ手法を提示し,評価する。
これらの2つのアプローチの有効性を評価するため,13人の参加者を対象に,モックアップを各モードで生成する実験を行った。
その結果,スケッチベースの生成の方が直感的かつ表現的であり,セマンティックベースの生成AIは質と忠実度でより良い結果が得られることがわかった。
どちらの方法も、創造性と効率性を高めたいuiデザイナーにとって価値のあるツールになり得る。
関連論文リスト
- GLDesigner: Leveraging Multi-Modal LLMs as Designer for Enhanced Aesthetic Text Glyph Layouts [53.568057283934714]
コンテンツ対応のテキストロゴレイアウトを生成するVLMベースのフレームワークを提案する。
本稿では,複数のグリフ画像の同時処理における計算量を削減するための2つのモデル手法を提案する。
アウトモデルのインストラクションチューニングを支援するために,既存の公開データセットよりも5倍大きい2つの拡張テキストロゴデータセットを構築した。
論文 参考訳(メタデータ) (2024-11-18T10:04:10Z) - Sketch2Code: Evaluating Vision-Language Models for Interactive Web Design Prototyping [55.98643055756135]
初歩的なスケッチのWebページプロトタイプへの変換を自動化する上で,最先端のビジョン言語モデル(VLM)を評価するベンチマークであるSketch2Codeを紹介した。
我々は、既存のVLMではSketch2Codeが困難であることを示す10の商用およびオープンソースモデルを分析した。
UI/UXの専門家によるユーザ調査では、受動的フィードバックの受信よりも、積極的に質問を行うのがかなり好まれている。
論文 参考訳(メタデータ) (2024-10-21T17:39:49Z) - MetaDesigner: Advancing Artistic Typography through AI-Driven, User-Centric, and Multilingual WordArt Synthesis [65.78359025027457]
MetaDesignerは、Large Language Models(LLM)の強みを活用して、ユーザエンゲージメントを中心としたデザインパラダイムを推進することによって、芸術的なタイポグラフィに革命をもたらす。
総合的なフィードバックメカニズムは、マルチモーダルモデルとユーザ評価からの洞察を活用して、設計プロセスを反復的に洗練し、拡張する。
実証的な検証は、MetaDesignerが様々なWordArtアプリケーションに効果的に機能し、審美的に魅力的でコンテキストに敏感な結果を生み出す能力を強調している。
論文 参考訳(メタデータ) (2024-06-28T11:58:26Z) - Human Machine Co-Creation. A Complementary Cognitive Approach to
Creative Character Design Process Using GANs [0.0]
2つのニューラルネットワークが競合し、元のデータセットと区別できない新しい視覚コンテンツを生成する。
提案するアプローチは、知覚、理解、作成のプロセスを伝えることを目的としている。
マシンが生成した概念は、キャラクターデザイナーが新しいキャラクターを概念化するためのローンチプラットフォームとして使用される。
論文 参考訳(メタデータ) (2023-11-23T12:18:39Z) - DEsignBench: Exploring and Benchmarking DALL-E 3 for Imagining Visual
Design [124.56730013968543]
ビジュアルデザインシナリオに適したテキスト・ツー・イメージ(T2I)生成ベンチマークであるDesignBenchを紹介する。
DesignBenchベンチマークでは、画像テキストアライメント、視覚美学、デザインクリエイティビティの基準に対して、生成された画像に対する人間による評価を行う。
GPT-4Vを用いた最初の自動画像生成評価器を提案する。
論文 参考訳(メタデータ) (2023-10-23T17:48:38Z) - Creating User Interface Mock-ups from High-Level Text Descriptions with
Deep-Learning Models [19.63933191791183]
自然言語句から低忠実度UIモックアップを作成するための3つのディープラーニング技術を紹介する。
一貫性のある多種多様なUI設計モックアップを提案する各手法の能力を定量的に、質的に比較し、対比する。
論文 参考訳(メタデータ) (2021-10-14T23:48:46Z) - Unadversarial Examples: Designing Objects for Robust Vision [100.4627585672469]
現代の機械学習アルゴリズムの感度を入力摂動に活かし、「ロバストオブジェクト」を設計するフレームワークを開発しています。
標準ベンチマークから(シミュレーション中)ロボット工学まで,さまざまな視覚ベースのタスクに対するフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2020-12-22T18:26:07Z) - Sketch-Guided Scenery Image Outpainting [83.6612152173028]
本稿では,スケッチ誘導露光を行うエンコーダデコーダに基づくネットワークを提案する。
全体的アライメントモジュールを適用して、合成された部分をグローバルビューの実際のものと類似させる。
第2に, 合成した部分からスケッチを逆向きに生成し, 接地した部分との整合性を奨励する。
論文 参考訳(メタデータ) (2020-06-17T11:34:36Z) - Evaluating Mixed-Initiative Procedural Level Design Tools using a
Triple-Blind Mixed-Method User Study [0.0]
インタラクティブな進化的最適化を用いてレベルを生成するツールを,本研究のために設計した。
このツールは、手書き地図のレベルデザインパターンを特定し、その情報を使ってインタラクティブな最適化アルゴリズムを駆動する。
複雑なイニシアティブツールを使用したデザイナの経験を、完全にランダムなレベルの提案を提供するツールを与えられたデザイナと比較した厳密なユーザスタディが設計された。
論文 参考訳(メタデータ) (2020-05-15T11:40:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。