論文の概要: PrITTI: Primitive-based Generation of Controllable and Editable 3D Semantic Scenes
- arxiv url: http://arxiv.org/abs/2506.19117v1
- Date: Mon, 23 Jun 2025 20:47:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.382953
- Title: PrITTI: Primitive-based Generation of Controllable and Editable 3D Semantic Scenes
- Title(参考訳): PrITTI:制御可能・編集可能な3Dセマンティックシーンの原始的生成
- Authors: Christina Ourania Tze, Daniel Dauner, Yiyi Liao, Dzmitry Tsishkou, Andreas Geiger,
- Abstract要約: 大規模な3Dセマンティックシーン生成は、主にボクセルに基づく表現に依存している。
プリミティブは、操作や構成が容易なコンパクトで粗い3D構造を使って、セマンティックなエンティティを表現する。
PrITTIは遅延拡散に基づくフレームワークで、プリミティブを作曲、制御可能、編集可能なシーンレイアウトを生成するための基本的な要素として活用する。
- 参考スコア(独自算出の注目度): 30.417675568919552
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large-scale 3D semantic scene generation has predominantly relied on voxel-based representations, which are memory-intensive, bound by fixed resolutions, and challenging to edit. In contrast, primitives represent semantic entities using compact, coarse 3D structures that are easy to manipulate and compose, making them an ideal representation for this task. In this paper, we introduce PrITTI, a latent diffusion-based framework that leverages primitives as the main foundational elements for generating compositional, controllable, and editable 3D semantic scene layouts. Our method adopts a hybrid representation, modeling ground surfaces in a rasterized format while encoding objects as vectorized 3D primitives. This decomposition is also reflected in a structured latent representation that enables flexible scene manipulation of ground and object components. To overcome the orientation ambiguities in conventional encoding methods, we introduce a stable Cholesky-based parameterization that jointly encodes object size and orientation. Experiments on the KITTI-360 dataset show that PrITTI outperforms a voxel-based baseline in generation quality, while reducing memory requirements by up to $3\times$. In addition, PrITTI enables direct instance-level manipulation of objects in the scene and supports a range of downstream applications, including scene inpainting, outpainting, and photo-realistic street-view synthesis.
- Abstract(参考訳): 大規模な3Dセマンティックシーンの生成は、主にボクセルベースの表現に依存している。
対照的にプリミティブは、操作や構成が容易なコンパクトで粗い3D構造を用いて、セマンティックなエンティティを表現する。
本稿では,プリミティブを基本要素として活用し,合成,制御,編集が可能な3Dセマンティックシーンレイアウトを生成する潜在拡散ベースのフレームワークPrITTIを紹介する。
本手法では, オブジェクトをベクトル化された3次元プリミティブとして符号化しながら, 地表面をラスタ化形式でモデル化するハイブリッド表現を採用する。
この分解は、地上および対象部品のフレキシブルなシーン操作を可能にする構造化潜在表現にも反映される。
従来の符号化手法における配向の曖昧さを克服するために,物体の大きさと配向を共に符号化する安定なコレスキー型パラメタライゼーションを導入する。
KITTI-360データセットの実験では、PrITTIは、voxelベースのベースラインを世代品質で上回り、メモリ要求を最大3ドルまで削減している。
さらにPrITTIは、シーン内のオブジェクトのインスタンスレベルの直接操作を可能にし、シーンのインペイント、アウトペイント、フォトリアリスティックストリートビュー合成など、さまざまなダウンストリームアプリケーションをサポートする。
関連論文リスト
- CasaGPT: Cuboid Arrangement and Scene Assembly for Interior Design [35.11283253765395]
室内シーン合成のための新しい手法として,分解した立方体プリミティブをシーン内の3次元オブジェクトに配置する手法を提案する。
提案手法はCuboid Arrangement and Scene AssemblyのCasaGPTと呼ばれ, 自動回帰モデルを用いてキューブを逐次配置し, 物理的に可視なシーンを生成する。
論文 参考訳(メタデータ) (2025-04-28T04:35:04Z) - HiScene: Creating Hierarchical 3D Scenes with Isometric View Generation [50.206100327643284]
HiSceneは、2D画像生成と3Dオブジェクト生成のギャップを埋める新しい階層的なフレームワークである。
構成構造を維持しながら2次元表現に整合した3次元コンテンツを生成する。
論文 参考訳(メタデータ) (2025-04-17T16:33:39Z) - Dynamic Scene Understanding through Object-Centric Voxelization and Neural Rendering [57.895846642868904]
オブジェクト中心学習が可能な動的シーンのための3次元生成モデルDynaVol-Sを提案する。
ボキセル化は、個々の空間的位置において、物体ごとの占有確率を推定する。
提案手法は2次元セマンティックな特徴を統合して3次元セマンティック・グリッドを作成し,複数の不整合ボクセル・グリッドを通してシーンを表現する。
論文 参考訳(メタデータ) (2024-07-30T15:33:58Z) - CG3D: Compositional Generation for Text-to-3D via Gaussian Splatting [57.14748263512924]
CG3Dは、スケーラブルな3Dアセットを合成的に生成する手法である。
ガンマ放射場は、オブジェクトの合成を可能にするためにパラメータ化され、意味的および物理的に一貫したシーンを可能にする能力を持っている。
論文 参考訳(メタデータ) (2023-11-29T18:55:38Z) - Differentiable Blocks World: Qualitative 3D Decomposition by Rendering
Primitives [70.32817882783608]
本稿では,3次元プリミティブを用いて,シンプルでコンパクトで動作可能な3次元世界表現を実現する手法を提案する。
既存の3次元入力データに依存するプリミティブ分解法とは異なり,本手法は画像を直接操作する。
得られたテクスチャ化されたプリミティブは入力画像を忠実に再構成し、視覚的な3Dポイントを正確にモデル化する。
論文 参考訳(メタデータ) (2023-07-11T17:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。