論文の概要: PhysX-3D: Physical-Grounded 3D Asset Generation
- arxiv url: http://arxiv.org/abs/2507.12465v3
- Date: Sun, 20 Jul 2025 07:57:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 12:28:43.157258
- Title: PhysX-3D: Physical-Grounded 3D Asset Generation
- Title(参考訳): PhysX-3D:物理グラウンド3Dアセットジェネレーション
- Authors: Ziang Cao, Zhaoxi Chen, Liang Pan, Ziwei Liu,
- Abstract要約: 既存の3D生成は、物理グラウンドモデリングを無視しながら、ジオメトリーとテクスチャに重点を置いている。
PhysXNet - 5つの基本次元に体系的にアノテートされた最初の物理地上3Dデータセット。
また,物理基底画像から3次元のアセット生成のためのフィードフォワードフレームワークである textbfPhysXGen も提案する。
- 参考スコア(独自算出の注目度): 48.78065667043986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D modeling is moving from virtual to physical. Existing 3D generation primarily emphasizes geometries and textures while neglecting physical-grounded modeling. Consequently, despite the rapid development of 3D generative models, the synthesized 3D assets often overlook rich and important physical properties, hampering their real-world application in physical domains like simulation and embodied AI. As an initial attempt to address this challenge, we propose \textbf{PhysX-3D}, an end-to-end paradigm for physical-grounded 3D asset generation. 1) To bridge the critical gap in physics-annotated 3D datasets, we present PhysXNet - the first physics-grounded 3D dataset systematically annotated across five foundational dimensions: absolute scale, material, affordance, kinematics, and function description. In particular, we devise a scalable human-in-the-loop annotation pipeline based on vision-language models, which enables efficient creation of physics-first assets from raw 3D assets.2) Furthermore, we propose \textbf{PhysXGen}, a feed-forward framework for physics-grounded image-to-3D asset generation, injecting physical knowledge into the pre-trained 3D structural space. Specifically, PhysXGen employs a dual-branch architecture to explicitly model the latent correlations between 3D structures and physical properties, thereby producing 3D assets with plausible physical predictions while preserving the native geometry quality. Extensive experiments validate the superior performance and promising generalization capability of our framework. All the code, data, and models will be released to facilitate future research in generative physical AI.
- Abstract(参考訳): 3Dモデリングは仮想から物理的へと移行している。
既存の3D生成は、物理グラウンドモデリングを無視しながら、ジオメトリーとテクスチャに重点を置いている。
その結果、3D生成モデルの急速な発展にもかかわらず、合成された3Dアセットは、しばしばリッチで重要な物理的特性を見落とし、シミュレーションやエボデードAIのような物理領域における実際の応用を妨げる。
この課題に対処するための最初の試みとして,物理地上3Dアセット生成のためのエンドツーエンドパラダイムである \textbf{PhysX-3D} を提案する。
1) 物理アノテートされた3Dデータセットの臨界ギャップを埋めるために, 絶対スケール, 材料, 余裕, キネマティクス, 関数記述の5つの基本次元に体系的にアノテートされた最初の物理グラウンドド3DデータセットであるPhysXNetを提案する。
特に、視覚言語モデルに基づくスケーラブルなヒューマン・イン・ザ・ループ・アノテーションパイプラインを考案し、生の3Dアセットから物理第一のアセットを効率的に作成できるようにする。
具体的には、PhysXGenは2重ブランチアーキテクチャを用いて、3D構造と物理的性質の間の潜伏関係を明示的にモデル化し、ネイティブな幾何学的品質を維持しながら、もっともらしい物理的予測を伴う3Dアセットを生成する。
大規模な実験により、我々のフレームワークの優れた性能と有望な一般化能力が検証された。
すべてのコード、データ、モデルがリリースされ、生成的物理AIの今後の研究を促進する。
関連論文リスト
- SOPHY: Learning to Generate Simulation-Ready Objects with Physical Materials [10.156212838002903]
SOPHYは3次元物理を意識した形状合成のための生成モデルである。
本手法は, 物理接地力学に関連する形状, テクスチャ, 材料特性を共同で合成する。
論文 参考訳(メタデータ) (2025-04-17T06:17:24Z) - PhysGen3D: Crafting a Miniature Interactive World from a Single Image [31.41059199853702]
PhysGen3Dは、単一の画像をアモーダルでカメラ中心のインタラクティブな3Dシーンに変換する新しいフレームワークだ。
中心となるPhysGen3Dは、物体の3D形状、ポーズ、物理的および照明特性を推定する。
我々はPhysGen3Dの性能を、Pika、Kling、Gen-3など、クローズド・ソース・オブ・ザ・アート(SOTA)画像・ビデオモデルと比較した。
論文 参考訳(メタデータ) (2025-03-26T17:31:04Z) - Text-to-3D Gaussian Splatting with Physics-Grounded Motion Generation [47.6666060652434]
正確な外観と幾何学的構造を持つ3次元モデルを生成する革新的なフレームワークを提案する。
テキスト・ツー・3D生成と物理基底運動合成を統合することにより,本フレームワークはフォトリアリスティックな3Dオブジェクトを描画する。
論文 参考訳(メタデータ) (2024-12-07T06:48:16Z) - Phys4DGen: Physics-Compliant 4D Generation with Multi-Material Composition Perception [4.054634170768821]
Phys4DGenは、多物質合成知覚と物理シミュレーションを統合する新しい4D生成フレームワークである。
このフレームワークは、3つの革新的なモジュールを通して、自動化され、物理的に妥当な4D生成を実現する。
合成と実世界の両方のデータセットの実験により、Phys4DGenは物理的リアリズムを持つ高忠実な4Dコンテンツを生成可能であることが示された。
論文 参考訳(メタデータ) (2024-11-25T12:12:38Z) - Physics3D: Learning Physical Properties of 3D Gaussians via Video Diffusion [35.71595369663293]
ビデオ拡散モデルを用いて3Dオブジェクトの様々な物理的特性を学習する新しい手法である textbfPhysics3D を提案する。
本手法では,粘弾性材料モデルに基づく高一般化物理シミュレーションシステムを設計する。
弾性材料とプラスチック材料の両方を用いて, 本手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-06-06T17:59:47Z) - DreamPhysics: Learning Physics-Based 3D Dynamics with Video Diffusion Priors [75.83647027123119]
本稿では,映像拡散前の物体の物理的特性を学習することを提案する。
次に,物理に基づくMaterial-Point-Methodシミュレータを用いて,現実的な動きを伴う4Dコンテンツを生成する。
論文 参考訳(メタデータ) (2024-06-03T16:05:25Z) - Physically Compatible 3D Object Modeling from a Single Image [109.98124149566927]
単一画像を3次元物理オブジェクトに変換するフレームワークを提案する。
我々のフレームワークは、リコンストラクションプロセスに物理的な互換性を組み込む。
既存の手法よりも3Dモデルの物理的リアリズムを一貫して強化する。
論文 参考訳(メタデータ) (2024-05-30T21:59:29Z) - Atlas3D: Physically Constrained Self-Supporting Text-to-3D for Simulation and Fabrication [50.541882834405946]
我々は,テキストから3Dへの自動的実装であるAtlas3Dを紹介する。
提案手法は,新しい微分可能シミュレーションに基づく損失関数と,物理的にインスパイアされた正規化を組み合わせたものである。
我々は、Atlas3Dの有効性を広範囲な生成タスクを通して検証し、シミュレーションと実環境の両方で結果の3Dモデルを検証する。
論文 参考訳(メタデータ) (2024-05-28T18:33:18Z) - PhysDreamer: Physics-Based Interaction with 3D Objects via Video Generation [62.53760963292465]
PhysDreamerは物理に基づくアプローチで、静的な3Dオブジェクトにインタラクティブなダイナミクスを与える。
本稿では, 弾性物体の多様な例について考察し, ユーザスタディを通じて合成された相互作用の現実性を評価する。
論文 参考訳(メタデータ) (2024-04-19T17:41:05Z) - 3D-IntPhys: Towards More Generalized 3D-grounded Visual Intuitive
Physics under Challenging Scenes [68.66237114509264]
複雑なシーンと流体の映像から3次元的な視覚的直感的な物理モデルを学習できるフレームワークを提案する。
本モデルでは,生画像から学習し,明示的な3次元表現空間を用いないモデルよりもはるかに優れた将来予測が可能であることを示す。
論文 参考訳(メタデータ) (2023-04-22T19:28:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。