論文の概要: Intelligent Home 3D: Automatic 3D-House Design from Linguistic
Descriptions Only
- arxiv url: http://arxiv.org/abs/2003.00397v1
- Date: Sun, 1 Mar 2020 04:28:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 13:04:04.758880
- Title: Intelligent Home 3D: Automatic 3D-House Design from Linguistic
Descriptions Only
- Title(参考訳): インテリジェントホーム3D:言語記述のみによる自動3Dハウスデザイン
- Authors: Qi Chen, Qi Wu, Rui Tang, Yuhan Wang, Shuai Wang, Mingkui Tan
- Abstract要約: 本稿では,言語条件付き視覚コンテンツ生成問題として,フロアプラン生成と内部テクスチャ合成タスクに分割して定式化する。
モデルをトレーニングし,評価するために,最初のText-to-3D House Modelデータセットを構築した。
- 参考スコア(独自算出の注目度): 55.3363844662966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Home design is a complex task that normally requires architects to finish
with their professional skills and tools. It will be fascinating that if one
can produce a house plan intuitively without knowing much knowledge about home
design and experience of using complex designing tools, for example, via
natural language. In this paper, we formulate it as a language conditioned
visual content generation problem that is further divided into a floor plan
generation and an interior texture (such as floor and wall) synthesis task. The
only control signal of the generation process is the linguistic expression
given by users that describe the house details. To this end, we propose a House
Plan Generative Model (HPGM) that first translates the language input to a
structural graph representation and then predicts the layout of rooms with a
Graph Conditioned Layout Prediction Network (GC LPN) and generates the interior
texture with a Language Conditioned Texture GAN (LCT-GAN). With some
post-processing, the final product of this task is a 3D house model. To train
and evaluate our model, we build the first Text-to-3D House Model dataset.
- Abstract(参考訳): ホームデザインは複雑なタスクであり、アーキテクトが専門的なスキルとツールを仕上げる必要がある。
住宅設計に関する知識や、自然言語による複雑な設計ツールの使用経験をあまり知ることなく、直感的に住宅計画を作成することができるのは、興味深いことです。
本稿では, フロアプラン生成と室内テクスチャ(床や壁など)合成タスクにさらに分割した, 言語条件付き視覚コンテンツ生成問題として定式化する。
生成プロセスの唯一の制御信号は、家の詳細を記述するユーザによって与えられる言語表現である。
この目的のために,まず言語入力を構造グラフ表現に変換し,次にGC LPN(Graph Conditioned Layout Prediction Network)を用いて部屋のレイアウトを予測し,LCT-GAN(Language Conditioned Texture GAN)を用いて内部テクスチャを生成する,HPGM(House Plan Generative Model)を提案する。
いくつかの後処理では、このタスクの最終製品は3Dハウスモデルである。
モデルをトレーニングし,評価するために,最初のText-to-3D House Modelデータセットを構築した。
関連論文リスト
- SceneTeller: Language-to-3D Scene Generation [15.209079637302905]
本手法では,室内の物体配置を自然言語で記述し,それに対応する高品質な3Dシーンを生成する。
私たちのターンキーパイプラインは最先端の3Dシーンを生成しますが、初心者でも簡単に使用できます。
論文 参考訳(メタデータ) (2024-07-30T10:45:28Z) - I-Design: Personalized LLM Interior Designer [57.00412237555167]
I-Designはパーソナライズされたインテリアデザイナで、自然言語によるコミュニケーションを通じて設計目標の生成と視覚化を可能にする。
I-Designは、対話や論理的推論に従事する大きな言語モデルエージェントのチームから始まる。
最終的な設計は、既存のオブジェクトデータベースから資産を取り出し、統合することで、3Dで構築されます。
論文 参考訳(メタデータ) (2024-04-03T16:17:53Z) - L3GO: Language Agents with Chain-of-3D-Thoughts for Generating
Unconventional Objects [53.4874127399702]
本稿では,3Dメッシュ生成を推論可能な3Dメッシュ生成手法であるL3GO(チェーン・オブ・3D思想)を用いた言語エージェントを提案する。
我々は,新しいベンチマークである Unconventionally Feasible Objects (UFO) と,Blender上に構築されたSimpleBlenv を開発した。
提案手法は,ShapeNet上での3Dメッシュ生成のための標準GPT-4および他の言語エージェントを上回る。
論文 参考訳(メタデータ) (2024-02-14T09:51:05Z) - AnyHome: Open-Vocabulary Generation of Structured and Textured 3D Homes [10.482201110770584]
我々はAnyHomeを紹介した。AnyHomeは、どんなテキストでもよく構造化された、テクスチャ化された屋内シーンに家庭スケールで翻訳するフレームワークだ。
提案手法は,大規模言語モデル (LLM) を設計テンプレートで促進することにより,提案した文章をアモーダルな構造化表現に変換する。
次に、スコア蒸留サンプリングプロセスを使用して幾何学を洗練させ、それにライフスタイルのテクスチャを付加するエゴセントリックな塗布プロセスが続く。
論文 参考訳(メタデータ) (2023-12-11T18:56:37Z) - GraphDreamer: Compositional 3D Scene Synthesis from Scene Graphs [74.98581417902201]
シーングラフから合成3Dシーンを生成するための新しいフレームワークを提案する。
シーングラフにおけるノード情報とエッジ情報を活用することにより,事前学習したテキスト・画像拡散モデルをよりよく活用する。
GraphDreamerの有効性を検証するために,定性的および定量的な実験を行った。
論文 参考訳(メタデータ) (2023-11-30T18:59:58Z) - Tell2Design: A Dataset for Language-Guided Floor Plan Generation [21.686370988228614]
自然言語記述からデザインを直接生成する作業について検討する。
デザインは、芸術的なイメージの生成に存在しない異なる制約を満たす必要がある。
論文 参考訳(メタデータ) (2023-11-27T15:49:29Z) - 3D-GPT: Procedural 3D Modeling with Large Language Models [47.72968643115063]
命令駆動3Dモデリングのための大規模言語モデル(LLM)を利用するフレームワークである3D-GPTを紹介する。
3D-GPTは、3Dモデリングタスクをアクセス可能なセグメントに分割し、各タスクにアプエージェントを割り当てる。
我々の実証調査では、3D-GPTが解釈し、指示を実行し、信頼性の高い結果を提供するだけでなく、人間デザイナーと効果的に協力することを確認した。
論文 参考訳(メタデータ) (2023-10-19T17:41:48Z) - Zero-Shot Text-Guided Object Generation with Dream Fields [111.06026544180398]
ニューラルレンダリングとマルチモーダル画像とテキスト表現を組み合わせることで、多様な3Dオブジェクトを合成する。
提案手法であるドリームフィールドは,3次元の監督なしに広範囲の物体の形状と色を生成できる。
実験では、ドリーム・フィールズ(Dream Fields)は、様々な自然言語のキャプションから、現実的で多視点で一貫したオブジェクトの幾何学と色を作り出す。
論文 参考訳(メタデータ) (2021-12-02T17:53:55Z) - LanguageRefer: Spatial-Language Model for 3D Visual Grounding [72.7618059299306]
3次元視覚的グラウンドリング問題に対する空間言語モデルを構築した。
本稿では,ReferIt3Dが提案する視覚言語データセットに対して,本モデルが競合的に動作することを示す。
論文 参考訳(メタデータ) (2021-07-07T18:55:03Z) - Building-GAN: Graph-Conditioned Architectural Volumetric Design
Generation [10.024367148266721]
本稿では,入力プログラムグラフに基づくボリュームデザイン生成について述べる。
密度の高い3次元ボクセルを出力する代わりに、ジオメトリを構築するためにコンパクトかつ表現性の高い新しい3次元表現であるボクセルグラフを提案する。
私たちのジェネレータは、入力プログラムグラフと出力ボキセルグラフを接続するためのポインタメカニズムを使用するクロスモーダルグラフニューラルネットワークであり、パイプライン全体が逆のフレームワークを使用して訓練されます。
論文 参考訳(メタデータ) (2021-04-27T16:49:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。