論文の概要: Architext: Language-Driven Generative Architecture Design
- arxiv url: http://arxiv.org/abs/2303.07519v2
- Date: Wed, 15 Mar 2023 16:07:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 10:37:00.754569
- Title: Architext: Language-Driven Generative Architecture Design
- Title(参考訳): Architext: 言語駆動生成アーキテクチャ設計
- Authors: Theodoros Galanos, Antonios Liapis and Georgios N. Yannakakis
- Abstract要約: Architextは、大規模な言語モデルに入力として与えられる自然言語プロンプトのみを持つ設計生成を可能にする。
我々は,多くの事前学習言語モデルに対する意味的精度と多様性に着目し,Architextのダウンストリームタスク性能を徹底的に定量的に評価する。
Architextモデルは、特定の設計タスクを学習し、有効な住宅レイアウトを100%近い速度で生成することができる。
- 参考スコア(独自算出の注目度): 1.393683063795544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Architectural design is a highly complex practice that involves a wide
diversity of disciplines, technologies, proprietary design software, expertise,
and an almost infinite number of constraints, across a vast array of design
tasks. Enabling intuitive, accessible, and scalable design processes is an
important step towards performance-driven and sustainable design for all. To
that end, we introduce Architext, a novel semantic generation assistive tool.
Architext enables design generation with only natural language prompts, given
to large-scale Language Models, as input. We conduct a thorough quantitative
evaluation of Architext's downstream task performance, focusing on semantic
accuracy and diversity for a number of pre-trained language models ranging from
120 million to 6 billion parameters. Architext models are able to learn the
specific design task, generating valid residential layouts at a near 100% rate.
Accuracy shows great improvement when scaling the models, with the largest
model (GPT-J) yielding impressive accuracy ranging between 25% to over 80% for
different prompt categories. We open source the finetuned Architext models and
our synthetic dataset, hoping to inspire experimentation in this exciting area
of design research.
- Abstract(参考訳): アーキテクチャ設計は、幅広い分野、技術、プロプライエタリなデザインソフトウェア、専門知識、そしてほぼ無限の制約を含む非常に複雑なプラクティスである。
直感的でアクセシブルでスケーラブルな設計プロセスを実現することは、パフォーマンス駆動で持続可能な設計への重要なステップです。
そこで本研究では,新しい意味生成支援ツールであるarchitextを紹介する。
Architextは、大規模な言語モデルに入力として与えられる自然言語プロンプトのみを持つ設計生成を可能にする。
我々は,1億2000万から60億のパラメータを含む事前学習された言語モデルの意味的精度と多様性に着目し,Architextの下流タスク性能の詳細な定量的評価を行う。
Architextモデルは、特定の設計タスクを学習し、有効な住宅レイアウトを100%近い速度で生成することができる。
大きなモデル(gpt-j)では、さまざまなプロンプトカテゴリで25%から80%以上という、印象的な精度を実現している。
私たちは、このエキサイティングなデザイン研究領域で実験を刺激したいと考えている、微調整Architextモデルと合成データセットをオープンソースにしています。
関連論文リスト
- LayoutDETR: Detection Transformer Is a Good Multimodal Layout Designer [81.5482196644596]
グラフィックレイアウトデザインは視覚コミュニケーションにおいて重要な役割を担っている。
しかし、手作りのレイアウトデザインは、スキルを要求し、時間がかかり、バッチプロダクションではスケールできない。
生成モデルから高品質およびリアリズムを継承するtextitDETRを提案する。
論文 参考訳(メタデータ) (2022-12-19T21:57:35Z) - AI Art in Architecture [0.6853165736531939]
最近の拡散ベースのAIアートプラットフォームは、単純なテキスト記述から印象的なイメージを作成することができる。
これはアーキテクチャ設計の初期段階にも当てはまり、アイデア、スケッチ、モデリングの段階が複数ある。
アーキテクチャ設計における一連の一般的なユースケースに対して,Midjourney,DALL-E 2,StableDiffusionの各プラットフォームの適用性について検討する。
論文 参考訳(メタデータ) (2022-12-19T12:24:14Z) - What Language Model to Train if You Have One Million GPU Hours? [54.32062236748831]
モデリングの実践の違いがゼロショット一般化に与える影響について検討する。
また、多言語モデルの性能と、英語のみとの比較についても検討する。
私たちのモデルとコードは、https://huggingface.co/bigscience.comでオープンソース化されています。
論文 参考訳(メタデータ) (2022-10-27T13:43:27Z) - Material Prediction for Design Automation Using Graph Representation
Learning [5.181429907321226]
本稿では,集合体の物質予測を支援するグラフ表現学習フレームワークを提案する。
CADモデルの集合グラフ表現上でのノードレベルの予測タスクとして材料選択タスクを定式化し、グラフニューラルネットワーク(GNN)を用いてそれに取り組む。
提案するフレームワークは,大規模データセットにスケールアップし,デザイナの知識を学習プロセスに組み込む。
論文 参考訳(メタデータ) (2022-09-26T15:49:35Z) - Towards Goal, Feasibility, and Diversity-Oriented Deep Generative Models
in Design [4.091593765662773]
我々は、パフォーマンス、実現可能性、多様性、目標達成を同時に最適化する最初のDeep Generative Modelを提案する。
異なるデータ型のスキュー・マルチモーダルデータを用いた多目的自転車フレーム設計問題に対して, 提案手法を検証した。
論文 参考訳(メタデータ) (2022-06-14T20:57:23Z) - Sparse*BERT: Sparse Models are Robust [79.42527716035879]
本稿では, 階層的非構造的マグニチュード・プルーニング(Gradual Unstructured Magnitude Pruning)を用いて, ドメイン間およびタスク間を移動可能なモデルについて検討する。
Sparse*BERTは、非構造化バイオメディカルテキスト上で圧縮されたアーキテクチャを事前学習することで、SparseBioBERTとなることを示す。
論文 参考訳(メタデータ) (2022-05-25T02:51:12Z) - DeepStruct: Pretraining of Language Models for Structure Prediction [64.84144849119554]
テキストから構造を生成するために,タスクに依存しないコーパスの集合上で言語モデルを事前訓練する。
我々の構造事前学習は、モデルが構造タスクについて持っている学習知識のゼロショット転送を可能にする。
10Bパラメータ言語モデルがほとんどのタスクに非自明に転送し、28のデータセットのうち21の最先端のパフォーマンスを得ることを示す。
論文 参考訳(メタデータ) (2022-05-21T00:58:22Z) - Investigating Positive and Negative Qualities of Human-in-the-Loop
Optimization for Designing Interaction Techniques [55.492211642128446]
設計者は、与えられた目的の集合を最大化する設計パラメータの組み合わせを見つけるよう求められる設計最適化タスクに苦労すると言われている。
モデルベースの計算設計アルゴリズムは、設計中に設計例を生成することでデザイナを支援する。
一方、補助のためのブラックボックスメソッドは、あらゆる設計問題に対処できる。
論文 参考訳(メタデータ) (2022-04-15T20:40:43Z) - AIRCHITECT: Learning Custom Architecture Design and Mapping Space [2.498907460918493]
我々は機械学習モデルをトレーニングし、カスタムアーキテクチャの設計とマッピング空間の最適パラメータを予測する。
最適設計およびマッピングパラメータの予測を「一般化」するために,設計空間を捕捉し,モデルを訓練することは可能であることを示す。
私たちはAIRCHITECTと呼ばれるカスタムネットワークアーキテクチャをトレーニングし、94.3%のテスト精度でアーキテクチャ設計空間を学習することができる。
論文 参考訳(メタデータ) (2021-08-16T05:05:52Z) - XtremeDistilTransformers: Task Transfer for Task-agnostic Distillation [80.18830380517753]
我々は新しいタスク非依存蒸留フレームワーク XtremeDistilTransformers を開発した。
本研究は, 蒸留における複数のソースタスク, 拡張資源, モデルアーキテクチャの伝達可能性について検討する。
論文 参考訳(メタデータ) (2021-06-08T17:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。