論文の概要: Structured Graph Variational Autoencoders for Indoor Furniture layout
Generation
- arxiv url: http://arxiv.org/abs/2204.04867v1
- Date: Mon, 11 Apr 2022 04:58:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-12 16:26:21.800846
- Title: Structured Graph Variational Autoencoders for Indoor Furniture layout
Generation
- Title(参考訳): 室内家具レイアウト生成のための構造化グラフ変動オートエンコーダ
- Authors: Aditya Chattopadhyay, Xi Zhang, David Paul Wipf, Rene Vidal, Himanshu
Arora
- Abstract要約: 室内3Dシーンのレイアウトを生成するための構造化グラフ変分オートエンコーダを提案する。
このアーキテクチャは、入力グラフを構造化潜在空間にマッピングするグラフエンコーダと、家具グラフを生成するグラフデコーダから構成される。
3D-FRONTデータセットを用いた実験により,本手法は多様で室内レイアウトに適応したシーンを生成する。
- 参考スコア(独自算出の注目度): 7.035614458419328
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a structured graph variational autoencoder for generating the
layout of indoor 3D scenes. Given the room type (e.g., living room or library)
and the room layout (e.g., room elements such as floor and walls), our
architecture generates a collection of objects (e.g., furniture items such as
sofa, table and chairs) that is consistent with the room type and layout. This
is a challenging problem because the generated scene should satisfy multiple
constrains, e.g., each object must lie inside the room and two objects cannot
occupy the same volume. To address these challenges, we propose a deep
generative model that encodes these relationships as soft constraints on an
attributed graph (e.g., the nodes capture attributes of room and furniture
elements, such as class, pose and size, and the edges capture geometric
relationships such as relative orientation). The architecture consists of a
graph encoder that maps the input graph to a structured latent space, and a
graph decoder that generates a furniture graph, given a latent code and the
room graph. The latent space is modeled with auto-regressive priors, which
facilitates the generation of highly structured scenes. We also propose an
efficient training procedure that combines matching and constrained learning.
Experiments on the 3D-FRONT dataset show that our method produces scenes that
are diverse and are adapted to the room layout.
- Abstract(参考訳): 室内3Dシーンのレイアウトを生成するための構造化グラフ変分オートエンコーダを提案する。
部屋の種類(リビングルームや図書館など)や部屋のレイアウト(床や壁などの部屋の要素)を考えると、私たちの建築は部屋のタイプやレイアウトと整合したオブジェクト(ソファ、テーブル、椅子などの家具)のコレクションを生成します。
これは、生成されたシーンは複数の制約を満たすべきであるため、難しい問題である。例えば、各オブジェクトは部屋の中に横たわり、2つのオブジェクトは同じボリュームを占有できない。
これらの課題に対処するために,これらの関係を属性グラフ上のソフト制約として符号化する深層生成モデルを提案する(例えば,ノードがクラス,ポーズ,サイズなどの部屋や家具の要素の属性をキャプチャし,エッジが相対方向などの幾何学的関係をキャプチャする)。
アーキテクチャは、入力グラフを構造化された潜在空間にマッピングするグラフエンコーダと、潜在コードとルームグラフを与えられた家具グラフを生成するグラフデコーダで構成されている。
潜在空間は、高度に構造化されたシーンの生成を容易にする自己回帰前処理でモデル化される。
また,マッチング学習と制約学習を組み合わせた効率的な学習手法を提案する。
3D-FRONTデータセットを用いた実験により,本手法は多様で室内レイアウトに適応したシーンを生成する。
関連論文リスト
- 3D scene generation from scene graphs and self-attention [51.49886604454926]
本稿では,シーングラフとフロアプランから3次元シーンを合成する条件付き変分オートエンコーダ(cVAE)モデルを提案する。
我々は、シーン内のオブジェクト間の高レベルな関係をキャプチャするために、自己注意層の特性を利用する。
論文 参考訳(メタデータ) (2024-04-02T12:26:17Z) - SGAligner : 3D Scene Alignment with Scene Graphs [84.01002998166145]
3Dシーングラフの構築は、いくつかの具体的AIアプリケーションのためのシーン表現のトピックとして登場した。
オーバーラップ可能な3次元シーングラフのペアをゼロから部分的に整列させるという基本的な問題に着目する。
そこで我々はSGAlignerを提案する。SGAlignerは3次元シーングラフのペアを組合わせるための最初の方法であり、その組込みシナリオに対して堅牢である。
論文 参考訳(メタデータ) (2023-04-28T14:39:22Z) - SceneHGN: Hierarchical Graph Networks for 3D Indoor Scene Generation
with Fine-Grained Geometry [92.24144643757963]
3D屋内シーンは、インテリアデザインからゲーム、バーチャルおよび拡張現実に至るまで、コンピュータグラフィックスで広く使われている。
高品質な3D屋内シーンは、専門知識が必要であり、手動で高品質な3D屋内シーンを設計するのに時間を要する。
SCENEHGNは3次元屋内シーンの階層的なグラフネットワークであり,部屋レベルからオブジェクトレベルまでの全階層を考慮し,最後にオブジェクト部分レベルに展開する。
提案手法は, 立体形状の細かな家具を含む, 可塑性3次元室内容を直接生成し, 直接的に生成することができる。
論文 参考訳(メタデータ) (2023-02-16T15:31:59Z) - S-Graphs+: Real-time Localization and Mapping leveraging Hierarchical
Representations [9.13466172688693]
S-Graphs+は,(1)ロボットのポーズを推定したポーズ層,(2)壁面を表す壁層,(3)壁面の集合を含む部屋層,(4)部屋を所定の階内に集める床層を含む,新しい4層係数グラフである。
上記のグラフは、ロボットのポーズとそのマップの堅牢で正確な推定値を得るために、リアルタイムで最適化され、同時に環境の高レベル情報を構築し、活用する。
論文 参考訳(メタデータ) (2022-12-22T15:06:21Z) - Graph-to-3D: End-to-End Generation and Manipulation of 3D Scenes Using
Scene Graphs [85.54212143154986]
制御可能なシーン合成は、基本的な仕様を満たす3D情報を生成することで構成される。
シーングラフは、オブジェクト(ノード)とオブジェクト間の関係(エッジ)からなるシーンの表現である
本稿では,シーングラフから形状を直接エンドツーエンドに生成する手法を提案する。
論文 参考訳(メタデータ) (2021-08-19T17:59:07Z) - Building-GAN: Graph-Conditioned Architectural Volumetric Design
Generation [10.024367148266721]
本稿では,入力プログラムグラフに基づくボリュームデザイン生成について述べる。
密度の高い3次元ボクセルを出力する代わりに、ジオメトリを構築するためにコンパクトかつ表現性の高い新しい3次元表現であるボクセルグラフを提案する。
私たちのジェネレータは、入力プログラムグラフと出力ボキセルグラフを接続するためのポインタメカニズムを使用するクロスモーダルグラフニューラルネットワークであり、パイプライン全体が逆のフレームワークを使用して訓練されます。
論文 参考訳(メタデータ) (2021-04-27T16:49:34Z) - Learning 3D Semantic Scene Graphs from 3D Indoor Reconstructions [94.17683799712397]
我々は、グラフ内のシーンのエンティティを整理するデータ構造であるシーングラフに焦点を当てる。
本研究では,シーンの点雲からシーングラフを回帰する学習手法を提案する。
本稿では,3D-3Dおよび2D-3Dマッチングの中間表現としてグラフが機能するドメインに依存しない検索タスクにおける本手法の適用について述べる。
論文 参考訳(メタデータ) (2020-04-08T12:25:25Z) - House-GAN: Relational Generative Adversarial Networks for
Graph-constrained House Layout Generation [59.86153321871127]
主な考え方は、制約をリレーショナルネットワークのグラフ構造にエンコードすることである。
我々は、新しい住宅レイアウト生成問題に対する提案されたアーキテクチャを実証した。
論文 参考訳(メタデータ) (2020-03-16T03:16:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。