論文の概要: Architext: Language-Driven Generative Architecture Design
- arxiv url: http://arxiv.org/abs/2303.07519v2
- Date: Wed, 15 Mar 2023 16:07:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 10:37:00.754569
- Title: Architext: Language-Driven Generative Architecture Design
- Title(参考訳): Architext: 言語駆動生成アーキテクチャ設計
- Authors: Theodoros Galanos, Antonios Liapis and Georgios N. Yannakakis
- Abstract要約: Architextは、大規模な言語モデルに入力として与えられる自然言語プロンプトのみを持つ設計生成を可能にする。
我々は,多くの事前学習言語モデルに対する意味的精度と多様性に着目し,Architextのダウンストリームタスク性能を徹底的に定量的に評価する。
Architextモデルは、特定の設計タスクを学習し、有効な住宅レイアウトを100%近い速度で生成することができる。
- 参考スコア(独自算出の注目度): 1.393683063795544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Architectural design is a highly complex practice that involves a wide
diversity of disciplines, technologies, proprietary design software, expertise,
and an almost infinite number of constraints, across a vast array of design
tasks. Enabling intuitive, accessible, and scalable design processes is an
important step towards performance-driven and sustainable design for all. To
that end, we introduce Architext, a novel semantic generation assistive tool.
Architext enables design generation with only natural language prompts, given
to large-scale Language Models, as input. We conduct a thorough quantitative
evaluation of Architext's downstream task performance, focusing on semantic
accuracy and diversity for a number of pre-trained language models ranging from
120 million to 6 billion parameters. Architext models are able to learn the
specific design task, generating valid residential layouts at a near 100% rate.
Accuracy shows great improvement when scaling the models, with the largest
model (GPT-J) yielding impressive accuracy ranging between 25% to over 80% for
different prompt categories. We open source the finetuned Architext models and
our synthetic dataset, hoping to inspire experimentation in this exciting area
of design research.
- Abstract(参考訳): アーキテクチャ設計は、幅広い分野、技術、プロプライエタリなデザインソフトウェア、専門知識、そしてほぼ無限の制約を含む非常に複雑なプラクティスである。
直感的でアクセシブルでスケーラブルな設計プロセスを実現することは、パフォーマンス駆動で持続可能な設計への重要なステップです。
そこで本研究では,新しい意味生成支援ツールであるarchitextを紹介する。
Architextは、大規模な言語モデルに入力として与えられる自然言語プロンプトのみを持つ設計生成を可能にする。
我々は,1億2000万から60億のパラメータを含む事前学習された言語モデルの意味的精度と多様性に着目し,Architextの下流タスク性能の詳細な定量的評価を行う。
Architextモデルは、特定の設計タスクを学習し、有効な住宅レイアウトを100%近い速度で生成することができる。
大きなモデル(gpt-j)では、さまざまなプロンプトカテゴリで25%から80%以上という、印象的な精度を実現している。
私たちは、このエキサイティングなデザイン研究領域で実験を刺激したいと考えている、微調整Architextモデルと合成データセットをオープンソースにしています。
関連論文リスト
- Compositional Generative Inverse Design [69.22782875567547]
入力変数を設計して目的関数を最適化する逆設計は重要な問題である。
拡散モデルにより得られた学習エネルギー関数を最適化することにより、そのような逆例を避けることができることを示す。
N-body 相互作用タスクと2次元多面体設計タスクにおいて,実験時に学習した拡散モデルを構成することにより,初期状態と境界形状を設計できることを示す。
論文 参考訳(メタデータ) (2024-01-24T01:33:39Z) - Zero-Shot RTL Code Generation with Attention Sink Augmented Large
Language Models [0.0]
本稿では,大規模言語モデルを利用したハードウェア設計におけるコード生成プロセスの合理化の可能性について論じる。
RTLコード生成で大きな言語モデルを使用する能力は、設計サイクルを高速化するだけでなく、設計空間の探索を促進する。
論文 参考訳(メタデータ) (2024-01-12T17:41:38Z) - From Concept to Manufacturing: Evaluating Vision-Language Models for
Engineering Design [5.268919870502001]
本稿では,幅広い工学設計課題を対象とした視覚言語モデルGPT-4Vの包括的評価について述べる。
本研究では,GPT-4Vのスケッチ類似性解析,Pugh Chartsを用いた概念選択,材料選択,図面解析,CAD生成,トポロジ最適化,付加的・減算的製造のための設計,空間的推論問題,教科書問題などの設計課題における能力を評価する。
論文 参考訳(メタデータ) (2023-11-21T15:20:48Z) - Opportunities for Large Language Models and Discourse in Engineering
Design [0.0]
談話はエンジニアリング設計プロセスの中核と見なされるべきであり、したがってデジタルアーティファクトで表現されるべきである、と我々は主張する。
シミュレーション,実験,トポロジ最適化,その他のプロセスステップを,機械操作可能な,談話中心の設計プロセスに統合する方法について述べる。
論文 参考訳(メタデータ) (2023-06-15T14:46:44Z) - MaMMUT: A Simple Architecture for Joint Learning for MultiModal Tasks [59.09343552273045]
本稿では,これらの異なる視覚言語タスクの協調学習に驚くほど有効であるマルチモーダルタスクのためのデコーダのみのモデルを提案する。
これらの多様な目的の合同学習は単純で効果的であり、これらのタスク間でのモデルの重量共有を最大化することを示した。
我々のモデルは,画像テキストとテキスト画像検索,ビデオ質問応答,オープン語彙検出タスクにおける技術の現状を達成し,より大きく,より広範囲に訓練された基礎モデルよりも優れている。
論文 参考訳(メタデータ) (2023-03-29T16:42:30Z) - What Language Model to Train if You Have One Million GPU Hours? [54.32062236748831]
モデリングの実践の違いがゼロショット一般化に与える影響について検討する。
また、多言語モデルの性能と、英語のみとの比較についても検討する。
私たちのモデルとコードは、https://huggingface.co/bigscience.comでオープンソース化されています。
論文 参考訳(メタデータ) (2022-10-27T13:43:27Z) - Material Prediction for Design Automation Using Graph Representation
Learning [5.181429907321226]
本稿では,集合体の物質予測を支援するグラフ表現学習フレームワークを提案する。
CADモデルの集合グラフ表現上でのノードレベルの予測タスクとして材料選択タスクを定式化し、グラフニューラルネットワーク(GNN)を用いてそれに取り組む。
提案するフレームワークは,大規模データセットにスケールアップし,デザイナの知識を学習プロセスに組み込む。
論文 参考訳(メタデータ) (2022-09-26T15:49:35Z) - Language Models are General-Purpose Interfaces [109.45478241369655]
本稿では,様々な基礎モデルに対する汎用インタフェースとして言語モデルを提案する。
事前訓練されたエンコーダのコレクションは、様々なモダリティ(ビジョンや言語など)を知覚する
インタフェースとモジュールエンコーダを協調的に事前学習するための半因果言語モデリング手法を提案する。
論文 参考訳(メタデータ) (2022-06-13T17:34:22Z) - Investigating Positive and Negative Qualities of Human-in-the-Loop
Optimization for Designing Interaction Techniques [55.492211642128446]
設計者は、与えられた目的の集合を最大化する設計パラメータの組み合わせを見つけるよう求められる設計最適化タスクに苦労すると言われている。
モデルベースの計算設計アルゴリズムは、設計中に設計例を生成することでデザイナを支援する。
一方、補助のためのブラックボックスメソッドは、あらゆる設計問題に対処できる。
論文 参考訳(メタデータ) (2022-04-15T20:40:43Z) - AIRCHITECT: Learning Custom Architecture Design and Mapping Space [2.498907460918493]
我々は機械学習モデルをトレーニングし、カスタムアーキテクチャの設計とマッピング空間の最適パラメータを予測する。
最適設計およびマッピングパラメータの予測を「一般化」するために,設計空間を捕捉し,モデルを訓練することは可能であることを示す。
私たちはAIRCHITECTと呼ばれるカスタムネットワークアーキテクチャをトレーニングし、94.3%のテスト精度でアーキテクチャ設計空間を学習することができる。
論文 参考訳(メタデータ) (2021-08-16T05:05:52Z) - XtremeDistilTransformers: Task Transfer for Task-agnostic Distillation [80.18830380517753]
我々は新しいタスク非依存蒸留フレームワーク XtremeDistilTransformers を開発した。
本研究は, 蒸留における複数のソースタスク, 拡張資源, モデルアーキテクチャの伝達可能性について検討する。
論文 参考訳(メタデータ) (2021-06-08T17:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。