論文の概要: Text-to-3D Gaussian Splatting with Physics-Grounded Motion Generation
- arxiv url: http://arxiv.org/abs/2412.05560v1
- Date: Sat, 07 Dec 2024 06:48:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:58:37.380207
- Title: Text-to-3D Gaussian Splatting with Physics-Grounded Motion Generation
- Title(参考訳): 物理グラウンド運動生成を用いたテキスト・ツー・3次元ガウス平滑化
- Authors: Wenqing Wang, Yun Fu,
- Abstract要約: 正確な外観と幾何学的構造を持つ3次元モデルを生成する革新的なフレームワークを提案する。
テキスト・ツー・3D生成と物理基底運動合成を統合することにより,本フレームワークはフォトリアリスティックな3Dオブジェクトを描画する。
- 参考スコア(独自算出の注目度): 47.6666060652434
- License:
- Abstract: Text-to-3D generation is a valuable technology in virtual reality and digital content creation. While recent works have pushed the boundaries of text-to-3D generation, producing high-fidelity 3D objects with inefficient prompts and simulating their physics-grounded motion accurately still remain unsolved challenges. To address these challenges, we present an innovative framework that utilizes the Large Language Model (LLM)-refined prompts and diffusion priors-guided Gaussian Splatting (GS) for generating 3D models with accurate appearances and geometric structures. We also incorporate a continuum mechanics-based deformation map and color regularization to synthesize vivid physics-grounded motion for the generated 3D Gaussians, adhering to the conservation of mass and momentum. By integrating text-to-3D generation with physics-grounded motion synthesis, our framework renders photo-realistic 3D objects that exhibit physics-aware motion, accurately reflecting the behaviors of the objects under various forces and constraints across different materials. Extensive experiments demonstrate that our approach achieves high-quality 3D generations with realistic physics-grounded motion.
- Abstract(参考訳): テキストから3D生成は、仮想現実とデジタルコンテンツ作成において貴重な技術である。
最近の研究はテキストから3D生成の境界を推し進めているが、非効率なプロンプトで高忠実な3Dオブジェクトを生成し、物理基底運動を正確にシミュレーションすることは、まだ未解決の課題である。
これらの課題に対処するために,Large Language Model (LLM) を改良したプロンプトと拡散事前誘導型ガウススプラッティング(GS)を用いて,正確な外観と幾何学的構造を持つ3次元モデルを生成する革新的なフレームワークを提案する。
また、連続体力学に基づく変形マップと色規則化を組み込んで、生成した3次元ガウスに対する鮮明な物理基底運動を合成し、質量と運動量の保存を図った。
テキストから3D生成を物理基底運動合成と組み合わせることで、様々な力下での物体の挙動を正確に反映し、異なる材料にまたがる制約を正確に反映し、物理認識運動を示すフォトリアリスティックな3Dオブジェクトを描画する。
広汎な実験により,本手法は現実的な物理基底運動により高品質な3次元世代を実現することを示す。
関連論文リスト
- Physics3D: Learning Physical Properties of 3D Gaussians via Video Diffusion [35.71595369663293]
ビデオ拡散モデルを用いて3Dオブジェクトの様々な物理的特性を学習する新しい手法である textbfPhysics3D を提案する。
本手法では,粘弾性材料モデルに基づく高一般化物理シミュレーションシステムを設計する。
弾性材料とプラスチック材料の両方を用いて, 本手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-06-06T17:59:47Z) - DreamPhysics: Learning Physical Properties of Dynamic 3D Gaussians with Video Diffusion Priors [75.83647027123119]
本稿では,映像拡散前の物体の物理的特性を学習することを提案する。
次に,物理に基づくMaterial-Point-Methodシミュレータを用いて,現実的な動きを伴う4Dコンテンツを生成する。
論文 参考訳(メタデータ) (2024-06-03T16:05:25Z) - Atlas3D: Physically Constrained Self-Supporting Text-to-3D for Simulation and Fabrication [50.541882834405946]
我々は,テキストから3Dへの自動的実装であるAtlas3Dを紹介する。
提案手法は,新しい微分可能シミュレーションに基づく損失関数と,物理的にインスパイアされた正規化を組み合わせたものである。
我々は、Atlas3Dの有効性を広範囲な生成タスクを通して検証し、シミュレーションと実環境の両方で結果の3Dモデルを検証する。
論文 参考訳(メタデータ) (2024-05-28T18:33:18Z) - PhysDreamer: Physics-Based Interaction with 3D Objects via Video Generation [62.53760963292465]
PhysDreamerは物理に基づくアプローチで、静的な3Dオブジェクトにインタラクティブなダイナミクスを与える。
本稿では, 弾性物体の多様な例について考察し, ユーザスタディを通じて合成された相互作用の現実性を評価する。
論文 参考訳(メタデータ) (2024-04-19T17:41:05Z) - Precise-Physics Driven Text-to-3D Generation [24.180947937863355]
高精度な物理駆動型テキスト・ツー・3D生成法であるPhy3DGenを提案する。
生成した3次元形状のソリッド・メカニクスを解析することにより,既存のテキスト・ツー・3次元生成手法が生み出す3次元形状が実世界の応用には実用的でないことを明らかにする。
論文 参考訳(メタデータ) (2024-03-19T04:51:38Z) - Sora Generates Videos with Stunning Geometrical Consistency [75.46675626542837]
そこで本研究では,実世界の物理原理に則って生成した映像の質を評価する新しいベンチマークを提案する。
生成した映像を3次元モデルに変換する手法を用いて,3次元再構成の精度が映像品質に大きく影響しているという前提を生かした。
論文 参考訳(メタデータ) (2024-02-27T10:49:05Z) - CG3D: Compositional Generation for Text-to-3D via Gaussian Splatting [57.14748263512924]
CG3Dは、スケーラブルな3Dアセットを合成的に生成する手法である。
ガンマ放射場は、オブジェクトの合成を可能にするためにパラメータ化され、意味的および物理的に一貫したシーンを可能にする能力を持っている。
論文 参考訳(メタデータ) (2023-11-29T18:55:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。