論文の概要: Sceniris: A Fast Procedural Scene Generation Framework
- arxiv url: http://arxiv.org/abs/2512.16896v1
- Date: Thu, 18 Dec 2025 18:55:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:32.234862
- Title: Sceniris: A Fast Procedural Scene Generation Framework
- Title(参考訳): Sceniris: 高速な手続き的シーン生成フレームワーク
- Authors: Jinghuan Shang, Harsh Patel, Ran Gong, Karl Schmeckpeper,
- Abstract要約: 本稿では,大規模で衝突のないシーンを高速に生成するための手続き的シーン生成フレームワークであるScenirisを紹介する。
Scenirisは、Scene Synthesizer上で少なくとも234倍のスピードアップを達成する。
- 参考スコア(独自算出の注目度): 12.721895485896624
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthetic 3D scenes are essential for developing Physical AI and generative models. Existing procedural generation methods often have low output throughput, creating a significant bottleneck in scaling up dataset creation. In this work, we introduce Sceniris, a highly efficient procedural scene generation framework for rapidly generating large-scale, collision-free scene variations. Sceniris also provides an optional robot reachability check, providing manipulation-feasible scenes for robot tasks. Sceniris is designed for maximum efficiency by addressing the primary performance limitations of the prior method, Scene Synthesizer. Leveraging batch sampling and faster collision checking in cuRobo, Sceniris achieves at least 234x speed-up over Scene Synthesizer. Sceniris also expands the object-wise spatial relationships available in prior work to support diverse scene requirements. Our code is available at https://github.com/rai-inst/sceniris
- Abstract(参考訳): 合成3Dシーンは、物理AIと生成モデルの開発に不可欠である。
既存の手続き生成手法は出力スループットが低く、データセット生成のスケールアップにおいて大きなボトルネックとなることが多い。
本研究では,大規模で衝突のないシーンを高速に生成する,高効率なプロシージャシーン生成フレームワークであるScenirisを紹介する。
Scenirisはまた、オプションでロボットの到達性チェックを提供し、ロボットタスクの操作可能なシーンを提供する。
Scenirisは、以前の方法であるScene Synthesizerの主な性能制限に対処することで、最大限の効率で設計されている。
ScenirisはcuRoboでのバッチサンプリングと高速衝突チェックを活用して、Scene Synthesizer上で少なくとも234倍のスピードアップを達成する。
Scenirisはまた、様々なシーン要件をサポートするために、事前の作業で利用できるオブジェクトと空間の関係を拡大する。
私たちのコードはhttps://github.com/rai-inst/scenirisで利用可能です。
関連論文リスト
- Steerable Scene Generation with Post Training and Inference-Time Search [21.854690970995648]
シミュレーションのトレーニングロボットは、下流タスクの特定の課題を反映した多様な3Dシーンを必要とする。
ロボット操作のための現実的な環境を近似した手続きモデルを用いて大規模シーンデータを生成する。
5つの異なる環境にまたがる4400万のSE(3)シーンのデータセットをリリースします。
論文 参考訳(メタデータ) (2025-05-07T22:07:42Z) - GS-LTS: 3D Gaussian Splatting-Based Adaptive Modeling for Long-Term Service Robots [33.19663755125912]
3D Gaussian Splatting (3DGS)は、ロボット工学において、鮮明で高忠実なシーン表現のために大きな注目を集めている。
室内ロボットによる動的環境における多様なタスクの時間的管理を可能にする3DGSベースのシステムであるGS-LTSを提案する。
論文 参考訳(メタデータ) (2025-03-22T11:26:47Z) - UniScene: Unified Occupancy-centric Driving Scene Generation [73.22859345600192]
UniSceneは3つの重要なデータ形式(セマンティック占有率、ビデオ、LiDAR)を生成するための最初の統一フレームワークである。
UniSceneは、シーン生成の複雑なタスクを2つの階層的なステップに分解するプログレッシブな生成プロセスを採用している。
大規模な実験により、UniSceneは、占有率、ビデオ、LiDAR生成において、以前のSOTAよりも優れていたことが示されている。
論文 参考訳(メタデータ) (2024-12-06T21:41:52Z) - Superpoint Gaussian Splatting for Real-Time High-Fidelity Dynamic Scene Reconstruction [10.208558194785017]
我々はSuperpoint Gaussian Splatting(SP-GS)という新しいフレームワークを提案する。
我々のフレームワークはまずシーンを再構築し、同様の性質を持つガウスをスーパーポイントにクラスタ化する。
これらのスーパーポイントを利用して、3次元ガウススプラッティングを動的シーンに拡張し、計算コストをわずかに増加させる。
論文 参考訳(メタデータ) (2024-06-06T02:32:41Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - Contrastive Lift: 3D Object Instance Segmentation by Slow-Fast
Contrastive Fusion [110.84357383258818]
本稿では,2次元セグメントを3次元に上げ,ニューラルネットワーク表現を用いて融合させる新しい手法を提案する。
このアプローチの中核は、高速なクラスタリング目的関数であり、多数のオブジェクトを持つシーンにスケーラブルで適しています。
我々のアプローチは、ScanNet、Hypersim、Replicaのデータセットからの挑戦的なシーンにおいて、最先端の状況よりも優れています。
論文 参考訳(メタデータ) (2023-06-07T17:57:45Z) - CabiNet: Scaling Neural Collision Detection for Object Rearrangement
with Procedural Scene Generation [54.68738348071891]
私たちはまず、さまざまな日常環境において、650万以上の散らばったシーン(前よりも桁違いに多い)を生成します。
このデータから合成部分点雲をレンダリングし、それをCabiNetモデルアーキテクチャのトレーニングに使用します。
CabiNetは、オブジェクトとシーンポイントの雲を受け入れる衝突モデルである。
論文 参考訳(メタデータ) (2023-04-18T21:09:55Z) - Fast Non-Rigid Radiance Fields from Monocularized Data [66.74229489512683]
本稿では,不規則に変形するシーンを360度内向きに合成する新しい手法を提案する。
提案手法のコアとなるのは, 空間情報と時間情報の処理を分離し, 訓練と推論を高速化する効率的な変形モジュール, 2) 高速ハッシュ符号化ニューラルラジオアンスフィールドとしての標準シーンを表す静的モジュールである。
どちらの場合も,本手法は従来の手法よりもはるかに高速で,7分未満で収束し,1K解像度でリアルタイムのフレームレートを実現するとともに,生成した新規なビューに対して高い視覚的精度が得られる。
論文 参考訳(メタデータ) (2022-12-02T18:51:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。