論文の概要: DiffuScene: Denoising Diffusion Models for Generative Indoor Scene
Synthesis
- arxiv url: http://arxiv.org/abs/2303.14207v2
- Date: Tue, 12 Mar 2024 15:40:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 02:24:55.275609
- Title: DiffuScene: Denoising Diffusion Models for Generative Indoor Scene
Synthesis
- Title(参考訳): ディファッセン:生成的室内シーン合成のための音化拡散モデル
- Authors: Jiapeng Tang, Yinyu Nie, Lev Markhasin, Angela Dai, Justus Thies,
Matthias Nie{\ss}ner
- Abstract要約: 拡散モデルに基づく屋内3次元シーン合成のためのDiffuSceneを提案する。
非順序オブジェクトセットに格納された3Dインスタンスプロパティを生成し、各オブジェクト設定に最もよく似た幾何学を検索する。
- 参考スコア(独自算出の注目度): 44.521452102413534
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present DiffuScene for indoor 3D scene synthesis based on a novel scene
configuration denoising diffusion model. It generates 3D instance properties
stored in an unordered object set and retrieves the most similar geometry for
each object configuration, which is characterized as a concatenation of
different attributes, including location, size, orientation, semantics, and
geometry features. We introduce a diffusion network to synthesize a collection
of 3D indoor objects by denoising a set of unordered object attributes.
Unordered parametrization simplifies and eases the joint distribution
approximation. The shape feature diffusion facilitates natural object
placements, including symmetries. Our method enables many downstream
applications, including scene completion, scene arrangement, and
text-conditioned scene synthesis. Experiments on the 3D-FRONT dataset show that
our method can synthesize more physically plausible and diverse indoor scenes
than state-of-the-art methods. Extensive ablation studies verify the
effectiveness of our design choice in scene diffusion models.
- Abstract(参考訳): 拡散モデルに基づく屋内3次元シーン合成のためのDiffuSceneを提案する。
非順序オブジェクトセットに格納された3dインスタンスプロパティを生成し、各オブジェクト構成に対して最も類似したジオメトリを取得する。
本研究では,非秩序なオブジェクト属性の集合を認知することにより,3次元屋内オブジェクトの集合を合成する拡散ネットワークを提案する。
非秩序なパラメトリゼーションは関節分布近似を単純化し、緩和する。
形状特徴の拡散は、対称性を含む自然な物体配置を促進する。
本手法は,シーン補完,シーン配置,テキストコンディショニングシーン合成など,多くの下流アプリケーションを可能にする。
3d-frontデータセットを用いた実験では,最先端の手法よりも物理的に妥当で多様な室内シーンを合成できることが示されている。
大規模なアブレーション研究は、シーン拡散モデルにおける設計選択の有効性を検証する。
関連論文リスト
- Open-Vocabulary 3D Semantic Segmentation with Text-to-Image Diffusion Models [57.37244894146089]
Diff2Sceneは、テキスト画像生成モデルからの凍結表現と、サルエント・アウェアと幾何学的アウェアマスクを併用して、オープンな3次元セマンティックセマンティックセグメンテーションと視覚的グラウンドニングタスクに活用する。
競争ベースラインを上回り、最先端の手法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2024-07-18T16:20:56Z) - Mixed Diffusion for 3D Indoor Scene Synthesis [55.94569112629208]
混合離散連続拡散モデルアーキテクチャであるMiDiffusionを提案する。
シーンレイアウトを2次元のフロアプランとオブジェクトの集合で表現し、それぞれがそのカテゴリ、場所、サイズ、方向で定義する。
実験により,MiDiffusionは床条件下での3次元シーン合成において,最先端の自己回帰モデルや拡散モデルよりもかなり優れていることが示された。
論文 参考訳(メタデータ) (2024-05-31T17:54:52Z) - DreamScape: 3D Scene Creation via Gaussian Splatting joint Correlation Modeling [23.06464506261766]
テキスト記述のみで高度に一貫した3Dシーンを作成する方法であるDreamScapeを提案する。
本手法では,シーン表現のための3次元ガウスガイドを,意味的プリミティブ(オブジェクト)とその空間変換によって構成する。
プログレッシブスケール制御は、局所オブジェクト生成中に調整され、異なるサイズと密度のオブジェクトがシーンに適応することを保証する。
論文 参考訳(メタデータ) (2024-04-14T12:13:07Z) - HOIDiffusion: Generating Realistic 3D Hand-Object Interaction Data [42.49031063635004]
本研究では,現実的かつ多様な3次元ハンドオブジェクトインタラクションデータを生成するためのHOIDiffusionを提案する。
本モデルは,3次元手対象幾何学構造とテキスト記述を画像合成の入力として用いた条件拡散モデルである。
生成した3Dデータを6次元オブジェクトのポーズ推定学習に適用し,認識システムの改善に有効であることを示す。
論文 参考訳(メタデータ) (2024-03-18T17:48:31Z) - InstructScene: Instruction-Driven 3D Indoor Scene Synthesis with
Semantic Graph Prior [27.773451301040424]
InstructSceneは、セマンティックグラフとレイアウトデコーダを統合する新しい生成フレームワークである。
本稿では,提案手法が既存の最先端手法をはるかに上回ることを示す。
論文 参考訳(メタデータ) (2024-02-07T10:09:00Z) - CommonScenes: Generating Commonsense 3D Indoor Scenes with Scene Graph
Diffusion [83.30168660888913]
シーングラフを対応する制御可能な3Dシーンに変換する完全生成モデルであるCommonScenesを提案する。
パイプラインは2つのブランチで構成されており、1つは変分オートエンコーダでシーン全体のレイアウトを予測し、もう1つは互換性のある形状を生成する。
生成されたシーンは、入力シーングラフを編集し、拡散モデルのノイズをサンプリングすることで操作することができる。
論文 参考訳(メタデータ) (2023-05-25T17:39:13Z) - Generative Novel View Synthesis with 3D-Aware Diffusion Models [96.78397108732233]
単一入力画像から3D対応の新規ビュー合成のための拡散モデルを提案する。
提案手法は既存の2次元拡散バックボーンを利用するが,重要な点として,幾何学的先行を3次元特徴体積の形で組み込む。
新たなビュー生成に加えて,本手法は3次元一貫性シーケンスを自己回帰的に合成する機能を備えている。
論文 参考訳(メタデータ) (2023-04-05T17:15:47Z) - Scene Synthesis via Uncertainty-Driven Attribute Synchronization [52.31834816911887]
本稿では,3次元シーンの多様な特徴パターンを捉えるニューラルシーン合成手法を提案する。
提案手法は,ニューラルネットワークと従来のシーン合成手法の双方の長所を結合する。
論文 参考訳(メタデータ) (2021-08-30T19:45:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。