論文の概要: PhysX-Anything: Simulation-Ready Physical 3D Assets from Single Image
- arxiv url: http://arxiv.org/abs/2511.13648v1
- Date: Mon, 17 Nov 2025 17:59:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 18:52:09.655416
- Title: PhysX-Anything: Simulation-Ready Physical 3D Assets from Single Image
- Title(参考訳): PhysX-Anything:シミュレーション可能な物理3Dアセット
- Authors: Ziang Cao, Fangzhou Hong, Zhaoxi Chen, Liang Pan, Ziwei Liu,
- Abstract要約: PhysX-Anythingは最初のシミュレーション可能な物理3D生成フレームワークである。
高品質なsim-ready 3Dアセットを明示的な幾何学、調音、物理的特性で生成する。
トークンの数を193倍に減らし、標準VLMトークン予算内で明示的な幾何学的学習を可能にする。
- 参考スコア(独自算出の注目度): 67.76547268461411
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D modeling is shifting from static visual representations toward physical, articulated assets that can be directly used in simulation and interaction. However, most existing 3D generation methods overlook key physical and articulation properties, thereby limiting their utility in embodied AI. To bridge this gap, we introduce PhysX-Anything, the first simulation-ready physical 3D generative framework that, given a single in-the-wild image, produces high-quality sim-ready 3D assets with explicit geometry, articulation, and physical attributes. Specifically, we propose the first VLM-based physical 3D generative model, along with a new 3D representation that efficiently tokenizes geometry. It reduces the number of tokens by 193x, enabling explicit geometry learning within standard VLM token budgets without introducing any special tokens during fine-tuning and significantly improving generative quality. In addition, to overcome the limited diversity of existing physical 3D datasets, we construct a new dataset, PhysX-Mobility, which expands the object categories in prior physical 3D datasets by over 2x and includes more than 2K common real-world objects with rich physical annotations. Extensive experiments on PhysX-Mobility and in-the-wild images demonstrate that PhysX-Anything delivers strong generative performance and robust generalization. Furthermore, simulation-based experiments in a MuJoCo-style environment validate that our sim-ready assets can be directly used for contact-rich robotic policy learning. We believe PhysX-Anything can substantially empower a broad range of downstream applications, especially in embodied AI and physics-based simulation.
- Abstract(参考訳): 3Dモデリングは、静的な視覚表現から、シミュレーションやインタラクションで直接使用可能な物理的、明瞭な資産へとシフトしている。
しかし、既存の3D生成手法の多くは、重要な物理特性と調音特性を見落としているため、組み込まれたAIにおける有用性を制限している。
このギャップを埋めるために、最初のシミュレーション可能な物理3D生成フレームワークであるPhysX-Anythingを導入する。
具体的には、VLMに基づく物理3次元生成モデルと、幾何学を効率的にトークン化する新しい3次元表現を提案する。
トークンの数を193倍に減らし、微調整中に特別なトークンを導入することなく標準的なVLMトークン予算内で明示的な幾何学的学習を可能にし、生成品質を著しく向上させる。
さらに、既存の物理3Dデータセットの限られた多様性を克服するため、従来の物理3Dデータセットのオブジェクトカテゴリを2倍拡張する新しいデータセットPhysX-Mobilityを構築し、リッチな物理アノテーションを備えた2K以上の一般的な現実世界オブジェクトを含む。
PhysX-Anythingが強力な生成性能と堅牢な一般化をもたらすことを示す。
さらに,MuJoCo型環境におけるシミュレーションに基づく実験により,我々のsim-readyアセットを接触に富むロボットポリシー学習に直接使用できることが確認された。
PhysX-Anythingは、特に具体化されたAIや物理ベースのシミュレーションにおいて、幅広い下流アプリケーションに実質的に力を与えることができると信じています。
関連論文リスト
- PhysWorld: From Real Videos to World Models of Deformable Objects via Physics-Aware Demonstration Synthesis [52.905353023326306]
物理的に妥当で多様な実演を合成し、効率的な世界モデルを学ぶためのフレームワークであるPhysWorldを提案する。
実験により、PhysWorldは、最新の最先端手法、すなわちPhysTwinよりも47倍高速な推論速度を実現しつつ、競争性能を持つことが示された。
論文 参考訳(メタデータ) (2025-10-24T13:25:39Z) - Seed3D 1.0: From Images to High-Fidelity Simulation-Ready 3D Assets [63.67760219308476]
シミュレーション可能な3Dアセットを単一画像から生成する基礎モデルであるSeed3D 1.0を提案する。
既存の3D生成モデルとは異なり、我々のシステムは正確な幾何学、よく整合したテクスチャ、リアルな物理的基盤を持つ資産を生産する。
論文 参考訳(メタデータ) (2025-10-22T18:16:32Z) - PhysX-3D: Physical-Grounded 3D Asset Generation [48.78065667043986]
既存の3D生成は、物理グラウンドモデリングを無視しながら、ジオメトリーとテクスチャに重点を置いている。
PhysXNet - 5つの基本次元に体系的にアノテートされた最初の物理地上3Dデータセット。
また,物理基底画像から3次元のアセット生成のためのフィードフォワードフレームワークである textbfPhysXGen も提案する。
論文 参考訳(メタデータ) (2025-07-16T17:59:35Z) - Physics3D: Learning Physical Properties of 3D Gaussians via Video Diffusion [35.71595369663293]
ビデオ拡散モデルを用いて3Dオブジェクトの様々な物理的特性を学習する新しい手法である textbfPhysics3D を提案する。
本手法では,粘弾性材料モデルに基づく高一般化物理シミュレーションシステムを設計する。
弾性材料とプラスチック材料の両方を用いて, 本手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-06-06T17:59:47Z) - DreamPhysics: Learning Physics-Based 3D Dynamics with Video Diffusion Priors [75.83647027123119]
本稿では,映像拡散前の物体の物理的特性を学習することを提案する。
次に,物理に基づくMaterial-Point-Methodシミュレータを用いて,現実的な動きを伴う4Dコンテンツを生成する。
論文 参考訳(メタデータ) (2024-06-03T16:05:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。