論文の概要: From Programs to Poses: Factored Real-World Scene Generation via Learned Program Libraries
- arxiv url: http://arxiv.org/abs/2510.10292v1
- Date: Sat, 11 Oct 2025 17:14:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.878762
- Title: From Programs to Poses: Factored Real-World Scene Generation via Learned Program Libraries
- Title(参考訳): プログラムから可能性へ:学習プログラムライブラリによる実世界の実環境生成
- Authors: Joy Hsu, Emily Jin, Jiajun Wu, Niloy J. Mitra,
- Abstract要約: FactoredScenesは部屋の構造を利用してリアルな3Dシーンを合成するフレームワークである。
本研究では,FacteredScenesが実際のScanNetのシーンと区別が難しい現実的な現実世界の部屋を生成することを示す。
- 参考スコア(独自算出の注目度): 43.58946961909274
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world scenes, such as those in ScanNet, are difficult to capture, with highly limited data available. Generating realistic scenes with varied object poses remains an open and challenging task. In this work, we propose FactoredScenes, a framework that synthesizes realistic 3D scenes by leveraging the underlying structure of rooms while learning the variation of object poses from lived-in scenes. We introduce a factored representation that decomposes scenes into hierarchically organized concepts of room programs and object poses. To encode structure, FactoredScenes learns a library of functions capturing reusable layout patterns from which scenes are drawn, then uses large language models to generate high-level programs, regularized by the learned library. To represent scene variations, FactoredScenes learns a program-conditioned model to hierarchically predict object poses, and retrieves and places 3D objects in a scene. We show that FactoredScenes generates realistic, real-world rooms that are difficult to distinguish from real ScanNet scenes.
- Abstract(参考訳): ScanNetのような現実世界のシーンは、非常に限られたデータしか入手できないため、キャプチャが難しい。
さまざまなオブジェクトのポーズで現実的なシーンを生成することは、オープンで困難な作業です。
本研究では,現実的な3Dシーンを合成するフレームワークであるFacteredScenesを提案する。
本稿では,シーンを階層的に構成された部屋プログラムとオブジェクトポーズに分解する因子表現を提案する。
構造をエンコードするために、FacteredScenesは、シーンが描画される再利用可能なレイアウトパターンをキャプチャする関数のライブラリを学び、次に大きな言語モデルを使用して学習ライブラリによって正規化された高レベルプログラムを生成する。
シーンのバリエーションを表現するために、FacteredScenesはプログラム条件付きモデルを学び、オブジェクトのポーズを階層的に予測し、シーン内の3Dオブジェクトを検索して配置する。
本研究では,FacteredScenesが実際のScanNetのシーンと区別が難しい現実的な現実世界の部屋を生成することを示す。
関連論文リスト
- InternScenes: A Large-scale Simulatable Indoor Scene Dataset with Realistic Layouts [36.53189513184921]
InternScenesは、およそ4万の多様なシーンからなる、大規模でシミュレート可能な屋内シーンデータセットである。
シーン内の大量の小さなアイテムを保存し、結果として、領域ごとの平均41.5オブジェクトの現実的で複雑なレイアウトを実現します。
InternScenesの価値を、シーンレイアウト生成とポイントゴールナビゲーションの2つのベンチマークアプリケーションで示す。
論文 参考訳(メタデータ) (2025-09-13T14:25:17Z) - CommonScenes: Generating Commonsense 3D Indoor Scenes with Scene Graph
Diffusion [83.30168660888913]
シーングラフを対応する制御可能な3Dシーンに変換する完全生成モデルであるCommonScenesを提案する。
パイプラインは2つのブランチで構成されており、1つは変分オートエンコーダでシーン全体のレイアウトを予測し、もう1つは互換性のある形状を生成する。
生成されたシーンは、入力シーングラフを編集し、拡散モデルのノイズをサンプリングすることで操作することができる。
論文 参考訳(メタデータ) (2023-05-25T17:39:13Z) - UrbanGIRAFFE: Representing Urban Scenes as Compositional Generative
Neural Feature Fields [22.180286908121946]
粗い3Dパノプティクスを用いて、3D認識生成モデルを導出するUrbanGIRAFFEを提案する。
私たちのモデルは、シーンを物、物、空に分解するので、構成的で制御可能です。
適切な損失関数を用いることで,多種多様な可制御性を持つ光リアルな3次元画像合成が容易となる。
論文 参考訳(メタデータ) (2023-03-24T17:28:07Z) - Learning Object-Compositional Neural Radiance Field for Editable Scene
Rendering [42.37007176376849]
本稿では,物体合成型ニューラルラジアンス場を学習し,クラスタ化された実世界のシーンをリアルにレンダリングするニューラルシーンレンダリングシステムを提案する。
密集したシーンでのトレーニングを生き残るために, 密集した領域における3次元空間のあいまいさを解消し, それぞれの物体の鋭い境界を学習するためのシーン誘導型トレーニング戦略を提案する。
論文 参考訳(メタデータ) (2021-09-04T11:37:18Z) - GIRAFFE: Representing Scenes as Compositional Generative Neural Feature
Fields [45.21191307444531]
深部生成モデルは、高解像度で光リアルな画像合成を可能にする。
しかし、多くのアプリケーションにとって、これは十分ではない。コンテンツ生成も制御可能である必要がある。
我々のキーとなる仮説は、構成的な3Dシーン表現を生成モデルに組み込むことにより、より制御可能な画像合成につながるというものである。
論文 参考訳(メタデータ) (2020-11-24T14:14:15Z) - Weakly Supervised Learning of Multi-Object 3D Scene Decompositions Using
Deep Shape Priors [69.02332607843569]
PriSMONetは、単一画像から多目的3Dシーンの分解と表現を学習するための新しいアプローチである。
リカレントエンコーダは、入力されたRGB画像から、各オブジェクトの3D形状、ポーズ、テクスチャの潜時表現を回帰する。
我々は,3次元シーンレイアウトの推測におけるモデルの精度を評価し,その生成能力を実証し,実画像への一般化を評価し,学習した表現の利点を指摘する。
論文 参考訳(メタデータ) (2020-10-08T14:49:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。