論文の概要: PhysGen: Physically Grounded 3D Shape Generation for Industrial Design
- arxiv url: http://arxiv.org/abs/2512.00422v1
- Date: Sat, 29 Nov 2025 10:00:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.236545
- Title: PhysGen: Physically Grounded 3D Shape Generation for Industrial Design
- Title(参考訳): PhysGen: 産業設計のための物理接地型3D形状生成
- Authors: Yingxuan You, Chen Zhao, Hantao Zhang, Mingda Xu, Pascal Fua,
- Abstract要約: 既存の3次元形状の生成モデルは、高忠実で視覚的に可視な形状を合成することができる。
工学的な設計過程を経たある種の形状に対して、形状の現実性は基礎となる物理的性質と強く結びついている。
本稿では,産業設計に焦点をあてた物理に基づく3次元形状生成パイプラインを提案する。
- 参考スコア(独自算出の注目度): 36.511363921450425
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing generative models for 3D shapes can synthesize high-fidelity and visually plausible shapes. For certain classes of shapes that have undergone an engineering design process, the realism of the shape is tightly coupled with the underlying physical properties, e.g., aerodynamic efficiency for automobiles. Since existing methods lack knowledge of such physics, they are unable to use this knowledge to enhance the realism of shape generation. Motivated by this, we propose a unified physics-based 3D shape generation pipeline, with a focus on industrial design applications. Specifically, we introduce a new flow matching model with explicit physical guidance, consisting of an alternating update process. We iteratively perform a velocity-based update and a physics-based refinement, progressively adjusting the latent code to align with the desired 3D shapes and physical properties. We further strengthen physical validity by incorporating a physics-aware regularization term into the velocity-based update step. To support such physics-guided updates, we build a shape-and-physics variational autoencoder (SP-VAE) that jointly encodes shape and physics information into a unified latent space. The experiments on three benchmarks show that this synergistic formulation improves shape realism beyond mere visual plausibility.
- Abstract(参考訳): 既存の3次元形状の生成モデルは、高忠実で視覚的に可視な形状を合成することができる。
工学的な設計過程を経た特定の形状のクラスでは、形状の現実性は、自動車の空力効率など、基礎となる物理的特性と強く結びついている。
既存の方法にはそのような物理学の知識がないため、形状生成の現実性を高めるためにこの知識を使うことはできない。
そこで本研究では,産業設計に焦点をあてた物理に基づく3次元形状生成パイプラインを提案する。
具体的には,更新処理を交互に行うことで,物理的ガイダンスを明示した新しいフローマッチングモデルを提案する。
速度に基づく更新と物理に基づく改良を反復的に行い、所望の3次元形状や物理特性に合わせるために潜時符号を段階的に調整する。
我々は、速度に基づく更新ステップに物理認識正則化項を組み込むことにより、身体的妥当性をさらに強化する。
このような物理誘導更新をサポートするために、形状と物理情報を結合して潜在空間に符号化する形状・物理変動型オートエンコーダ(SP-VAE)を構築した。
3つのベンチマークの実験は、この相乗的定式化が単なる視覚的可視性を超えた形状リアリズムを改善することを示している。
関連論文リスト
- PhysCtrl: Generative Physics for Controllable and Physics-Grounded Video Generation [53.06495362038348]
既存の世代モデルは、テキストや画像から写真リアリスティックなビデオを作るのに優れているが、物理的な可視性と3D制御性に欠けることが多い。
本稿では物理パラメータと力制御を備えた物理地上画像生成のための新しいフレームワークであるPhysCtrlを紹介する。
実験によると、PhysCtrlは現実的な物理地上の運動軌跡を生成し、画像とビデオのモデルを駆動する際に高忠実で制御可能なビデオを生成する。
論文 参考訳(メタデータ) (2025-09-24T17:58:04Z) - PhysX-3D: Physical-Grounded 3D Asset Generation [48.78065667043986]
既存の3D生成は、物理グラウンドモデリングを無視しながら、ジオメトリーとテクスチャに重点を置いている。
PhysXNet - 5つの基本次元に体系的にアノテートされた最初の物理地上3Dデータセット。
また,物理基底画像から3次元のアセット生成のためのフィードフォワードフレームワークである textbfPhysXGen も提案する。
論文 参考訳(メタデータ) (2025-07-16T17:59:35Z) - SOPHY: Learning to Generate Simulation-Ready Objects with Physical Materials [10.156212838002903]
SOPHYは3次元物理を意識した形状合成のための生成モデルである。
本手法は, 物理接地力学に関連する形状, テクスチャ, 材料特性を共同で合成する。
論文 参考訳(メタデータ) (2025-04-17T06:17:24Z) - PhysMotion: Physics-Grounded Dynamics From a Single Image [24.096925413047217]
本稿では、物理シミュレーションを利用した新しいフレームワークであるPhysMotionを紹介し、一つの画像と入力条件から生成された中間3次元表現をガイドする。
我々のアプローチは、従来のデータ駆動生成モデルの限界に対処し、より一貫した物理的に妥当な動きをもたらす。
論文 参考訳(メタデータ) (2024-11-26T07:59:11Z) - PhyRecon: Physically Plausible Neural Scene Reconstruction [81.73129450090684]
PHYRECONは、微分可能なレンダリングと微分可能な物理シミュレーションの両方を利用して暗黙的な表面表現を学習する最初のアプローチである。
この設計の中心は、SDFに基づく暗黙の表現と明示的な表面点の間の効率的な変換である。
また,物理シミュレータの安定性も向上し,全データセットに対して少なくとも40%の改善が得られた。
論文 参考訳(メタデータ) (2024-04-25T15:06:58Z) - Precise-Physics Driven Text-to-3D Generation [24.180947937863355]
高精度な物理駆動型テキスト・ツー・3D生成法であるPhy3DGenを提案する。
生成した3次元形状のソリッド・メカニクスを解析することにより,既存のテキスト・ツー・3次元生成手法が生み出す3次元形状が実世界の応用には実用的でないことを明らかにする。
論文 参考訳(メタデータ) (2024-03-19T04:51:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。