論文の概要: Automatic Measures for Evaluating Generative Design Methods for
Architects
- arxiv url: http://arxiv.org/abs/2303.11483v1
- Date: Mon, 20 Mar 2023 22:34:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 17:17:15.313167
- Title: Automatic Measures for Evaluating Generative Design Methods for
Architects
- Title(参考訳): 建築家の創生設計手法評価のための自動対策
- Authors: Eric Yeh, Briland Hitaj, Vidyasagar Sadhu, Anirban Roy, Takuma
Nakabayashi, Yoshito Tsuji
- Abstract要約: アーキテクトが概念的スケッチから設計提案を期待していることについて説明する。
これらの基準に対処できる画像から画像への生成手法をいくつか評価する。
- 参考スコア(独自算出の注目度): 2.4752678938561634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent explosion of high-quality image-to-image methods has prompted
interest in applying image-to-image methods towards artistic and design tasks.
Of interest for architects is to use these methods to generate design proposals
from conceptual sketches, usually hand-drawn sketches that are quickly
developed and can embody a design intent. More specifically, instantiating a
sketch into a visual that can be used to elicit client feedback is typically a
time consuming task, and being able to speed up this iteration time is
important. While the body of work in generative methods has been impressive,
there has been a mismatch between the quality measures used to evaluate the
outputs of these systems and the actual expectations of architects. In
particular, most recent image-based works place an emphasis on realism of
generated images. While important, this is one of several criteria architects
look for. In this work, we describe the expectations architects have for design
proposals from conceptual sketches, and identify corresponding automated
metrics from the literature. We then evaluate several image-to-image generative
methods that may address these criteria and examine their performance across
these metrics. From these results, we identify certain challenges with
hand-drawn conceptual sketches and describe possible future avenues of
investigation to address them.
- Abstract(参考訳): 近年、高品質な画像から画像への手法が爆発的に普及し、芸術的、デザイン的なタスクに画像から画像への手法を適用することへの関心が高まっている。
アーキテクトにとって興味深いのは、これらの手法を使って概念的なスケッチ(通常は手描きのスケッチ)から設計提案を生成することだ。
より具体的には、クライアントからのフィードバックを引き出すのに使用できるビジュアルにスケッチをインスタンス化することは、通常、時間を要する作業であり、このイテレーション時間を短縮できることが重要です。
生成的手法における作業体は印象的であるが、これらのシステムのアウトプットを評価するのに使用される品質指標とアーキテクトの実際の期待との間にはミスマッチがある。
特に、最近の画像ベース作品は、生成された画像のリアリズムに重点を置いている。
重要ではあるが、これはアーキテクトが求めるいくつかの基準の1つである。
そこで本研究では,設計者が設計提案に期待するものを概念スケッチから記述し,それに対応する自動メトリクスを文献から同定する。
次に,これらの基準に対処できる画像から画像への生成手法をいくつか評価し,その性能を指標として検討する。
これらの結果から,手描きのコンセプトスケッチによる課題を特定し,今後の研究の道筋について述べる。
関連論文リスト
- Design-o-meter: Towards Evaluating and Refining Graphic Designs [11.416650723712968]
本稿では,グラフィックデザインの良さを定量化するデータ駆動手法であるDesign-o-meterを紹介する。
私たちの知る限りでは、Design-o-meterは統一されたフレームワークで設計をスコア付けし洗練する最初のアプローチです。
論文 参考訳(メタデータ) (2024-11-22T14:17:46Z) - KITTEN: A Knowledge-Intensive Evaluation of Image Generation on Visual Entities [93.74881034001312]
テキスト・画像生成モデルにおける実体の忠実度に関する系統的研究を行う。
我々はランドマークの建物、航空機、植物、動物など、幅広い現実世界の視覚的実体を生成する能力に焦点をあてる。
その結果、最も高度なテキスト・画像モデルでさえ、正確な視覚的詳細を持つエンティティを生成できないことが判明した。
論文 参考訳(メタデータ) (2024-10-15T17:50:37Z) - CAD-Prompted Generative Models: A Pathway to Feasible and Novel Engineering Designs [4.806185947218336]
本稿では,実現可能なCAD画像の生成を促すことによって,設計の実現可能性を向上させる手法を提案する。
その結果、CAD画像のプロンプトは、Stable Diffusion 2.1のようなテキストから画像への変換に有効であることが示されている。
論文 参考訳(メタデータ) (2024-07-11T17:07:32Z) - A Survey on Quality Metrics for Text-to-Image Models [9.753473063305503]
本稿では,そのニュアンスに対処する既存のテキスト・ツー・イメージの品質指標の概要と,人間の嗜好に合わせた調整の必要性について述べる。
本稿では,これらの指標を分類するための新しい分類法を提案する。
我々は,テキスト・ツー・イメージ評価を行う実践者のためのガイドラインを導出し,評価メカニズムのオープンな課題と,現在の指標の限界について論じる。
論文 参考訳(メタデータ) (2024-03-18T14:24:20Z) - HAIFIT: Human-to-AI Fashion Image Translation [6.034505799418777]
本稿では,スケッチを高忠実なライフスタイルの衣料品画像に変換する新しいアプローチであるHAIFITを紹介する。
本手法は, ファッションデザインに欠かせない, 独特のスタイルの保存に優れ, 細部が複雑である。
論文 参考訳(メタデータ) (2024-03-13T16:06:07Z) - Unifying Image Processing as Visual Prompting Question Answering [62.84955983910612]
画像処理はコンピュータビジョンの基本的な課題であり、画像の品質を高め、その後の視覚アプリケーションに不可欠な特徴を抽出することを目的としている。
伝統的に、タスク固有のモデルは個々のタスクのために開発され、そのようなモデルの設計には異なる専門知識が必要である。
本稿では,画像復元,画像強調,画像特徴抽出タスクを網羅する汎用画像処理モデルを提案する。
論文 参考訳(メタデータ) (2023-10-16T15:32:57Z) - Sketch2Saliency: Learning to Detect Salient Objects from Human Drawings [99.9788496281408]
本研究では,スケッチを弱いラベルとして使用して,画像中の有能な物体を検出する方法について検討する。
これを実現するために,与えられた視覚写真に対応する逐次スケッチ座標を生成することを目的としたフォト・ツー・スケッチ生成モデルを提案する。
テストは、私たちの仮説を証明し、スケッチベースの唾液度検出モデルが、最先端技術と比較して、競争力のあるパフォーマンスを提供する方法を明確にします。
論文 参考訳(メタデータ) (2023-03-20T23:46:46Z) - Detecting Visual Design Principles in Art and Architecture through Deep
Convolutional Neural Networks [0.0]
本研究の目的は、異なるドメインに対する設計原則を認識し、分類するニューラルネットワークモデルである。
提案したモデルは,その基盤となる共有パターンをキャプチャして,原設計の無数の知識から学習する。
論文 参考訳(メタデータ) (2021-08-09T14:00:17Z) - Cross-Modal Hierarchical Modelling for Fine-Grained Sketch Based Image
Retrieval [147.24102408745247]
我々は、これまで見過ごされてきたスケッチのさらなる特性、すなわち、詳細レベルの階層性について研究する。
本稿では,スケッチ固有の階層を育成し,それを利用して,対応する階層レベルでのスケッチと写真とのマッチングを行う新しいネットワークを設計する。
論文 参考訳(メタデータ) (2020-07-29T20:50:25Z) - SketchyCOCO: Image Generation from Freehand Scene Sketches [71.85577739612579]
本稿では,シーンレベルのフリーハンドスケッチから画像の自動生成手法を提案する。
主要なコントリビューションは、EdgeGANと呼ばれる属性ベクトルをブリッジしたGeneversarative Adrial Networkである。
我々はSketchyCOCOと呼ばれる大規模複合データセットを構築し、ソリューションをサポートし評価した。
論文 参考訳(メタデータ) (2020-03-05T14:54:10Z) - Deep Self-Supervised Representation Learning for Free-Hand Sketch [51.101565480583304]
フリーハンドスケッチにおける自己指導型表現学習の課題に対処する。
自己教師型学習パラダイムの成功の鍵は、スケッチ固有の設計にある。
提案手法は最先端の教師なし表現学習法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-03T16:28:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。