論文の概要: Automatic Measures for Evaluating Generative Design Methods for
Architects
- arxiv url: http://arxiv.org/abs/2303.11483v1
- Date: Mon, 20 Mar 2023 22:34:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 17:17:15.313167
- Title: Automatic Measures for Evaluating Generative Design Methods for
Architects
- Title(参考訳): 建築家の創生設計手法評価のための自動対策
- Authors: Eric Yeh, Briland Hitaj, Vidyasagar Sadhu, Anirban Roy, Takuma
Nakabayashi, Yoshito Tsuji
- Abstract要約: アーキテクトが概念的スケッチから設計提案を期待していることについて説明する。
これらの基準に対処できる画像から画像への生成手法をいくつか評価する。
- 参考スコア(独自算出の注目度): 2.4752678938561634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent explosion of high-quality image-to-image methods has prompted
interest in applying image-to-image methods towards artistic and design tasks.
Of interest for architects is to use these methods to generate design proposals
from conceptual sketches, usually hand-drawn sketches that are quickly
developed and can embody a design intent. More specifically, instantiating a
sketch into a visual that can be used to elicit client feedback is typically a
time consuming task, and being able to speed up this iteration time is
important. While the body of work in generative methods has been impressive,
there has been a mismatch between the quality measures used to evaluate the
outputs of these systems and the actual expectations of architects. In
particular, most recent image-based works place an emphasis on realism of
generated images. While important, this is one of several criteria architects
look for. In this work, we describe the expectations architects have for design
proposals from conceptual sketches, and identify corresponding automated
metrics from the literature. We then evaluate several image-to-image generative
methods that may address these criteria and examine their performance across
these metrics. From these results, we identify certain challenges with
hand-drawn conceptual sketches and describe possible future avenues of
investigation to address them.
- Abstract(参考訳): 近年、高品質な画像から画像への手法が爆発的に普及し、芸術的、デザイン的なタスクに画像から画像への手法を適用することへの関心が高まっている。
アーキテクトにとって興味深いのは、これらの手法を使って概念的なスケッチ(通常は手描きのスケッチ)から設計提案を生成することだ。
より具体的には、クライアントからのフィードバックを引き出すのに使用できるビジュアルにスケッチをインスタンス化することは、通常、時間を要する作業であり、このイテレーション時間を短縮できることが重要です。
生成的手法における作業体は印象的であるが、これらのシステムのアウトプットを評価するのに使用される品質指標とアーキテクトの実際の期待との間にはミスマッチがある。
特に、最近の画像ベース作品は、生成された画像のリアリズムに重点を置いている。
重要ではあるが、これはアーキテクトが求めるいくつかの基準の1つである。
そこで本研究では,設計者が設計提案に期待するものを概念スケッチから記述し,それに対応する自動メトリクスを文献から同定する。
次に,これらの基準に対処できる画像から画像への生成手法をいくつか評価し,その性能を指標として検討する。
これらの結果から,手描きのコンセプトスケッチによる課題を特定し,今後の研究の道筋について述べる。
関連論文リスト
- HAIFIT: Human-Centered AI for Fashion Image Translation [6.592264069924195]
本稿では,スケッチを高忠実なライフスタイルの衣料品画像に変換する新しいアプローチであるHAIFITを紹介する。
本手法は, ファッションデザインに欠かせない, 独特のスタイルの保存に優れ, 細部が複雑である。
論文 参考訳(メタデータ) (2024-03-13T16:06:07Z) - FaceStudio: Put Your Face Everywhere in Seconds [23.381791316305332]
アイデンティティを保存する画像合成は、パーソナライズされたスタイリスティックなタッチを加えながら、被験者のアイデンティティを維持することを目指している。
Textual InversionやDreamBoothといった従来の手法は、カスタムイメージ作成に力を入れている。
本研究は,人間の画像に焦点をあてたアイデンティティ保存合成への新たなアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-05T11:02:45Z) - Unifying Image Processing as Visual Prompting Question Answering [62.84955983910612]
画像処理はコンピュータビジョンの基本的な課題であり、画像の品質を高め、その後の視覚アプリケーションに不可欠な特徴を抽出することを目的としている。
伝統的に、タスク固有のモデルは個々のタスクのために開発され、そのようなモデルの設計には異なる専門知識が必要である。
本稿では,画像復元,画像強調,画像特徴抽出タスクを網羅する汎用画像処理モデルを提案する。
論文 参考訳(メタデータ) (2023-10-16T15:32:57Z) - Using Text-to-Image Generation for Architectural Design Ideation [10.938191897918474]
本研究は, 建築設計プロセスの初期段階において, 創造性を支えるためのテキスト・ツー・イメージ・ジェネレータの可能性について, 初めて検討したものである。
我々は17人の建築学生とともに実験室で研究を行い、3つの人気テキスト・ツー・イメージ・ジェネレータを用いた文化センターの概念を考案した。
論文 参考訳(メタデータ) (2023-04-20T09:46:27Z) - Taming Encoder for Zero Fine-tuning Image Customization with
Text-to-Image Diffusion Models [55.04969603431266]
本稿では,ユーザが指定したカスタマイズされたオブジェクトの画像を生成する手法を提案する。
この手法は、従来のアプローチで要求される長大な最適化をバイパスする一般的なフレームワークに基づいている。
提案手法は, 出力品質, 外観の多様性, 被写体忠実度を考慮した画像合成が可能であることを示す。
論文 参考訳(メタデータ) (2023-04-05T17:59:32Z) - Sketch2Saliency: Learning to Detect Salient Objects from Human Drawings [99.9788496281408]
本研究では,スケッチを弱いラベルとして使用して,画像中の有能な物体を検出する方法について検討する。
これを実現するために,与えられた視覚写真に対応する逐次スケッチ座標を生成することを目的としたフォト・ツー・スケッチ生成モデルを提案する。
テストは、私たちの仮説を証明し、スケッチベースの唾液度検出モデルが、最先端技術と比較して、競争力のあるパフォーマンスを提供する方法を明確にします。
論文 参考訳(メタデータ) (2023-03-20T23:46:46Z) - AI Art in Architecture [0.6853165736531939]
最近の拡散ベースのAIアートプラットフォームは、単純なテキスト記述から印象的なイメージを作成することができる。
これはアーキテクチャ設計の初期段階にも当てはまり、アイデア、スケッチ、モデリングの段階が複数ある。
アーキテクチャ設計における一連の一般的なユースケースに対して,Midjourney,DALL-E 2,StableDiffusionの各プラットフォームの適用性について検討する。
論文 参考訳(メタデータ) (2022-12-19T12:24:14Z) - Detecting Visual Design Principles in Art and Architecture through Deep
Convolutional Neural Networks [0.0]
本研究の目的は、異なるドメインに対する設計原則を認識し、分類するニューラルネットワークモデルである。
提案したモデルは,その基盤となる共有パターンをキャプチャして,原設計の無数の知識から学習する。
論文 参考訳(メタデータ) (2021-08-09T14:00:17Z) - Cross-Modal Hierarchical Modelling for Fine-Grained Sketch Based Image
Retrieval [147.24102408745247]
我々は、これまで見過ごされてきたスケッチのさらなる特性、すなわち、詳細レベルの階層性について研究する。
本稿では,スケッチ固有の階層を育成し,それを利用して,対応する階層レベルでのスケッチと写真とのマッチングを行う新しいネットワークを設計する。
論文 参考訳(メタデータ) (2020-07-29T20:50:25Z) - SketchyCOCO: Image Generation from Freehand Scene Sketches [71.85577739612579]
本稿では,シーンレベルのフリーハンドスケッチから画像の自動生成手法を提案する。
主要なコントリビューションは、EdgeGANと呼ばれる属性ベクトルをブリッジしたGeneversarative Adrial Networkである。
我々はSketchyCOCOと呼ばれる大規模複合データセットを構築し、ソリューションをサポートし評価した。
論文 参考訳(メタデータ) (2020-03-05T14:54:10Z) - Deep Self-Supervised Representation Learning for Free-Hand Sketch [51.101565480583304]
フリーハンドスケッチにおける自己指導型表現学習の課題に対処する。
自己教師型学習パラダイムの成功の鍵は、スケッチ固有の設計にある。
提案手法は最先端の教師なし表現学習法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-03T16:28:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。