論文の概要: PAT3D: Physics-Augmented Text-to-3D Scene Generation
- arxiv url: http://arxiv.org/abs/2511.21978v1
- Date: Wed, 26 Nov 2025 23:23:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.328421
- Title: PAT3D: Physics-Augmented Text-to-3D Scene Generation
- Title(参考訳): PAT3D:物理で強化されたテキストから3Dのシーン生成
- Authors: Guying Lin, Kemeng Huang, Michael Liu, Ruihan Gao, Hanke Chen, Lyuhao Chen, Beijia Lu, Taku Komura, Yuan Liu, Jun-Yan Zhu, Minchen Li,
- Abstract要約: PAT3Dは3Dオブジェクトを生成し、それらの空間的関係を推測し、それらを階層的なシーンツリーに整理する。
微分可能な剛体シミュレータは、重力下での現実的な物体の相互作用を保証する。
実験により、PAT3Dは、物理的妥当性、意味的一貫性、視覚的品質において、従来のアプローチよりも大幅に優れていることが示された。
- 参考スコア(独自算出の注目度): 47.18949891825537
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce PAT3D, the first physics-augmented text-to-3D scene generation framework that integrates vision-language models with physics-based simulation to produce physically plausible, simulation-ready, and intersection-free 3D scenes. Given a text prompt, PAT3D generates 3D objects, infers their spatial relations, and organizes them into a hierarchical scene tree, which is then converted into initial conditions for simulation. A differentiable rigid-body simulator ensures realistic object interactions under gravity, driving the scene toward static equilibrium without interpenetrations. To further enhance scene quality, we introduce a simulation-in-the-loop optimization procedure that guarantees physical stability and non-intersection, while improving semantic consistency with the input prompt. Experiments demonstrate that PAT3D substantially outperforms prior approaches in physical plausibility, semantic consistency, and visual quality. Beyond high-quality generation, PAT3D uniquely enables simulation-ready 3D scenes for downstream tasks such as scene editing and robotic manipulation. Code and data will be released upon acceptance.
- Abstract(参考訳): PAT3Dは物理言語モデルと物理に基づくシミュレーションを統合した最初の物理拡張テキスト・ツー・3Dシーン生成フレームワークである。
テキストプロンプトが与えられた後、PAT3Dは3Dオブジェクトを生成し、空間的関係を推測し、それらを階層的なシーンツリーに整理し、シミュレーションの初期条件に変換する。
微分可能な剛体シミュレータは、重力下での現実的な物体の相互作用を保証する。
シーン品質をさらに向上するために,入力プロンプトとのセマンティック一貫性を改善しつつ,物理的安定性と非断面積を保証するシミュレーション・イン・ザ・ループ最適化手法を導入する。
実験により、PAT3Dは、物理的妥当性、意味的一貫性、視覚的品質において、従来のアプローチよりも大幅に優れていることが示された。
高品質な生成に加えて、PAT3Dは、シーン編集やロボット操作といった下流のタスクのためにシミュレーション可能な3Dシーンを可能にする。
コードとデータは受理時にリリースされる。
関連論文リスト
- Seed3D 1.0: From Images to High-Fidelity Simulation-Ready 3D Assets [63.67760219308476]
シミュレーション可能な3Dアセットを単一画像から生成する基礎モデルであるSeed3D 1.0を提案する。
既存の3D生成モデルとは異なり、我々のシステムは正確な幾何学、よく整合したテクスチャ、リアルな物理的基盤を持つ資産を生産する。
論文 参考訳(メタデータ) (2025-10-22T18:16:32Z) - PhysX-3D: Physical-Grounded 3D Asset Generation [48.78065667043986]
既存の3D生成は、物理グラウンドモデリングを無視しながら、ジオメトリーとテクスチャに重点を置いている。
PhysXNet - 5つの基本次元に体系的にアノテートされた最初の物理地上3Dデータセット。
また,物理基底画像から3次元のアセット生成のためのフィードフォワードフレームワークである textbfPhysXGen も提案する。
論文 参考訳(メタデータ) (2025-07-16T17:59:35Z) - Text-to-3D Gaussian Splatting with Physics-Grounded Motion Generation [47.6666060652434]
正確な外観と幾何学的構造を持つ3次元モデルを生成する革新的なフレームワークを提案する。
テキスト・ツー・3D生成と物理基底運動合成を統合することにより,本フレームワークはフォトリアリスティックな3Dオブジェクトを描画する。
論文 参考訳(メタデータ) (2024-12-07T06:48:16Z) - Efficient Physics Simulation for 3D Scenes via MLLM-Guided Gaussian Splatting [32.846428862045634]
Sim Anythingは、静的な3Dオブジェクトにインタラクティブなダイナミクスを与える物理ベースのアプローチである。
人間の視覚的推論に触発されて,MLLMに基づく物理特性知覚を提案する。
また、物理幾何学的適応サンプリングを用いて粒子をサンプリングして、オープンワールドシーンでオブジェクトをシミュレートする。
論文 参考訳(メタデータ) (2024-11-19T12:52:21Z) - DreamPhysics: Learning Physics-Based 3D Dynamics with Video Diffusion Priors [75.83647027123119]
本稿では,映像拡散前の物体の物理的特性を学習することを提案する。
次に,物理に基づくMaterial-Point-Methodシミュレータを用いて,現実的な動きを伴う4Dコンテンツを生成する。
論文 参考訳(メタデータ) (2024-06-03T16:05:25Z) - Atlas3D: Physically Constrained Self-Supporting Text-to-3D for Simulation and Fabrication [50.541882834405946]
我々は,テキストから3Dへの自動的実装であるAtlas3Dを紹介する。
提案手法は,新しい微分可能シミュレーションに基づく損失関数と,物理的にインスパイアされた正規化を組み合わせたものである。
我々は、Atlas3Dの有効性を広範囲な生成タスクを通して検証し、シミュレーションと実環境の両方で結果の3Dモデルを検証する。
論文 参考訳(メタデータ) (2024-05-28T18:33:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。