論文の概要: ATISS: Autoregressive Transformers for Indoor Scene Synthesis
- arxiv url: http://arxiv.org/abs/2110.03675v1
- Date: Thu, 7 Oct 2021 17:58:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-08 15:38:51.919302
- Title: ATISS: Autoregressive Transformers for Indoor Scene Synthesis
- Title(参考訳): ATISS:屋内シーン合成のための自動回帰変換器
- Authors: Despoina Paschalidou and Amlan Kar and Maria Shugrina and Karsten
Kreis and Andreas Geiger and Sanja Fidler
- Abstract要約: 我々は,合成室内環境を構築するための新しい自己回帰型トランスフォーマーアーキテクチャであるATISSを紹介する。
この定式化は、ATISSが完全に自動的な部屋レイアウト合成を超えて一般的に有用になるため、より自然なものであると我々は主張する。
本モデルは,ラベル付き3Dバウンディングボックスのみを監督として,自動回帰生成モデルとしてエンドツーエンドで訓練されている。
- 参考スコア(独自算出の注目度): 112.63708524926689
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to synthesize realistic and diverse indoor furniture layouts
automatically or based on partial input, unlocks many applications, from better
interactive 3D tools to data synthesis for training and simulation. In this
paper, we present ATISS, a novel autoregressive transformer architecture for
creating diverse and plausible synthetic indoor environments, given only the
room type and its floor plan. In contrast to prior work, which poses scene
synthesis as sequence generation, our model generates rooms as unordered sets
of objects. We argue that this formulation is more natural, as it makes ATISS
generally useful beyond fully automatic room layout synthesis. For example, the
same trained model can be used in interactive applications for general scene
completion, partial room re-arrangement with any objects specified by the user,
as well as object suggestions for any partial room. To enable this, our model
leverages the permutation equivariance of the transformer when conditioning on
the partial scene, and is trained to be permutation-invariant across object
orderings. Our model is trained end-to-end as an autoregressive generative
model using only labeled 3D bounding boxes as supervision. Evaluations on four
room types in the 3D-FRONT dataset demonstrate that our model consistently
generates plausible room layouts that are more realistic than existing methods.
In addition, it has fewer parameters, is simpler to implement and train and
runs up to 8 times faster than existing methods.
- Abstract(参考訳): インタラクティブな3dツールからトレーニングやシミュレーションのためのデータ合成まで、リアルで多様な室内家具のレイアウトを自動的にあるいは部分的な入力に基づいて合成する能力は、多くのアプリケーションをアンロックする。
本稿では,室内型とフロアプランのみを考慮し,多種多様な合成室内環境を構築するための自動回帰トランスフォーマーアーキテクチャであるATISSを提案する。
シーン合成をシーケンス生成として扱う先行研究とは対照的に,本モデルは無順序オブジェクト集合として部屋を生成する。
この定式化は、ATISSが完全に自動的な部屋レイアウト合成を超えて一般的に有用になるため、より自然なものであると我々は主張する。
例えば、同じトレーニングされたモデルは、一般的なシーン補完、ユーザーが指定した任意のオブジェクトに対する部分的な部屋再構成、および任意の部分的な部屋に対するオブジェクト提案のためのインタラクティブなアプリケーションで使用することができる。
これを実現するため、本モデルは部分的なシーンの条件付け時にトランスの置換等分散を活用し、オブジェクトの順序にまたがって置換不変であるように訓練する。
本モデルは,ラベル付き3Dバウンディングボックスのみを監督として,自動回帰生成モデルとしてエンドツーエンドで訓練されている。
3d-frontデータセットにおける4つのルームタイプの評価は、既存の方法よりも現実的な部屋レイアウトを一貫して生成することを示している。
さらに、パラメータが少なく、実装とトレーニングが簡単で、既存のメソッドよりも最大8倍高速に実行される。
関連論文リスト
- DeBaRA: Denoising-Based 3D Room Arrangement Generation [22.96293773013579]
有界環境における正確で制御可能で柔軟なアレンジメント生成に適したスコアベースモデルであるDeBaRAを紹介する。
本研究では,オブジェクトの空間特性に着目して,シーン合成や完了,再配置など,複数のダウンストリームアプリケーションを実行するために,単一トレーニングされたDeBaRAモデルをテスト時に活用できることを実証する。
論文 参考訳(メタデータ) (2024-09-26T23:18:25Z) - Mixed Diffusion for 3D Indoor Scene Synthesis [55.94569112629208]
混合離散連続拡散モデルアーキテクチャであるMiDiffusionを提案する。
シーンレイアウトを2次元のフロアプランとオブジェクトの集合で表現し、それぞれがそのカテゴリ、場所、サイズ、方向で定義する。
実験により,MiDiffusionは床条件下での3次元シーン合成において,最先端の自己回帰モデルや拡散モデルよりもかなり優れていることが示された。
論文 参考訳(メタデータ) (2024-05-31T17:54:52Z) - Purposer: Putting Human Motion Generation in Context [30.706219830149504]
本研究では,3次元屋内シーンに人間の動きを再現する新しい手法を提案する。
シーン内のパス、ターゲットポーズ、過去の動き、そして3Dポイントの雲として表されるシーンなど、様々な条件信号の組み合わせで制御できる。
論文 参考訳(メタデータ) (2024-04-19T15:16:04Z) - 3D scene generation from scene graphs and self-attention [51.49886604454926]
本稿では,シーングラフとフロアプランから3次元シーンを合成する条件付き変分オートエンコーダ(cVAE)モデルを提案する。
我々は、シーン内のオブジェクト間の高レベルな関係をキャプチャするために、自己注意層の特性を利用する。
論文 参考訳(メタデータ) (2024-04-02T12:26:17Z) - ROAM: Robust and Object-Aware Motion Generation Using Neural Pose
Descriptors [73.26004792375556]
本稿では,3次元オブジェクト認識キャラクタ合成における新しいシーンオブジェクトへのロバストさと一般化が,参照オブジェクトを1つも持たないモーションモデルをトレーニングすることで実現可能であることを示す。
我々は、オブジェクト専用のデータセットに基づいて訓練された暗黙的な特徴表現を活用し、オブジェクトの周りのSE(3)-同変記述体フィールドをエンコードする。
本研究では,3次元仮想キャラクタの動作と相互作用の質,および未知のオブジェクトを持つシナリオに対するロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-24T17:59:51Z) - Towards 3D Scene Understanding by Referring Synthetic Models [65.74211112607315]
メソッドは通常、実際のシーンスキャンにおける過剰なアノテーションを緩和する。
合成モデルは、合成特徴の実際のシーンカテゴリを、統一された特徴空間にどのように依存するかを考察する。
実験の結果,ScanNet S3DISデータセットの平均mAPは46.08%,学習データセットは55.49%であった。
論文 参考訳(メタデータ) (2022-03-20T13:06:15Z) - Scene Synthesis via Uncertainty-Driven Attribute Synchronization [52.31834816911887]
本稿では,3次元シーンの多様な特徴パターンを捉えるニューラルシーン合成手法を提案する。
提案手法は,ニューラルネットワークと従来のシーン合成手法の双方の長所を結合する。
論文 参考訳(メタデータ) (2021-08-30T19:45:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。