論文の概要: 3DID: Direct 3D Inverse Design for Aerodynamics with Physics-Aware Optimization
- arxiv url: http://arxiv.org/abs/2512.08987v1
- Date: Sat, 06 Dec 2025 13:09:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.250502
- Title: 3DID: Direct 3D Inverse Design for Aerodynamics with Physics-Aware Optimization
- Title(参考訳): 3DID:物理を意識したエアロダイナミクスの直接3次元逆設計
- Authors: Yuze Hao, Linchao Zhu, Yi Yang,
- Abstract要約: 逆設計は、特定の目的関数を最適化するために物理系の入力変数を設計することを目的としている。
3Dドメインでは、デザイン空間は指数関数的に増加し、網羅的なグリッドベースの検索は実現不可能である。
本稿では,連続的な潜在表現と物理認識の最適化戦略を結合することにより,3次元設計空間を直接ナビゲートする3次元逆設計フレームワークを提案する。
- 参考スコア(独自算出の注目度): 53.40777496077015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inverse design aims to design the input variables of a physical system to optimize a specified objective function, typically formulated as a search or optimization problem. However, in 3D domains, the design space grows exponentially, rendering exhaustive grid-based searches infeasible. Recent advances in deep learning have accelerated inverse design by providing powerful generative priors and differentiable surrogate models. Nevertheless, current methods tend to approximate the 3D design space using 2D projections or fine-tune existing 3D shapes. These approaches sacrifice volumetric detail and constrain design exploration, preventing true 3D design from scratch. In this paper, we propose a 3D Inverse Design (3DID) framework that directly navigates the 3D design space by coupling a continuous latent representation with a physics-aware optimization strategy. We first learn a unified physics-geometry embedding that compactly captures shape and physical field data in a continuous latent space. Then, we introduce a two-stage strategy to perform physics-aware optimization. In the first stage, a gradient-guided diffusion sampler explores the global latent manifold. In the second stage, an objective-driven, topology-preserving refinement further sculpts each candidate toward the target objective. This enables 3DID to generate high-fidelity 3D geometries, outperforming existing methods in both solution quality and design versatility.
- Abstract(参考訳): 逆設計は、特定の目的関数を最適化するために物理系の入力変数を設計することを目的としており、典型的には探索や最適化問題として定式化されている。
しかし、3Dドメインでは、設計空間は指数関数的に増加し、網羅的なグリッドベースの探索が不可能になる。
近年のディープラーニングの進歩は、強力な生成前のモデルと微分可能なサロゲートモデルを提供することで、逆設計を加速している。
しかしながら、現在の手法では、2次元の投影や、既存の微細な3次元形状を用いて3次元設計空間を近似する傾向にある。
これらのアプローチは、ボリュームの詳細と制約設計の探索を犠牲にして、真の3D設計をゼロから防ぐ。
本稿では,連続的な潜在表現と物理認識の最適化戦略を結合することにより,3次元設計空間を直接ナビゲートする3次元逆設計(3DID)フレームワークを提案する。
まず、連続的な潜伏空間における形状と物理的フィールドデータをコンパクトにキャプチャする統合物理幾何学を学習する。
次に,物理を意識した最適化を行うための2段階戦略を提案する。
第一段階では、勾配誘導拡散サンプリング器が大域潜在多様体を探索する。
第2段階では、客観的に駆動されるトポロジ保存の洗練が、さらにターゲット対象に向かって各候補を彫刻する。
これにより、3DIDは高忠実度な3Dジオメトリを生成でき、ソリューションの品質と設計の汎用性の両方において既存の手法よりも優れている。
関連論文リスト
- End-to-End Fine-Tuning of 3D Texture Generation using Differentiable Rewards [8.953379216683732]
本稿では,人間のフィードバックを3次元テクスチャパイプラインに直接埋め込む,エンドツーエンドの微分可能・強化学習不要なフレームワークを提案する。
幾何学的および外見的モジュールによる好み信号のバックプロパゲーションにより、3次元幾何学的構造を尊重し、所望の基準と整合するテクスチャを生成する。
論文 参考訳(メタデータ) (2025-06-23T06:24:12Z) - Enhancing Single Image to 3D Generation using Gaussian Splatting and Hybrid Diffusion Priors [17.544733016978928]
単一の画像から3Dオブジェクトを生成するには、野生で撮影された未ポーズのRGB画像から、目に見えない景色の完全な3D形状とテクスチャを推定する必要がある。
3次元オブジェクト生成の最近の進歩は、物体の形状とテクスチャを再構築する技術を導入している。
本稿では, この限界に対応するために, 2次元拡散モデルと3次元拡散モデルとのギャップを埋めることを提案する。
論文 参考訳(メタデータ) (2024-10-12T10:14:11Z) - DIRECT-3D: Learning Direct Text-to-3D Generation on Massive Noisy 3D Data [50.164670363633704]
テキストプロンプトから高品質な3Dアセットを作成するための拡散型3D生成モデルであるDIRECT-3Dを提案する。
我々のモデルは、広範に騒々しく不整合な3D資産で直接訓練されている。
単一クラス生成とテキスト・ツー・3D生成の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-06-06T17:58:15Z) - LN3Diff: Scalable Latent Neural Fields Diffusion for Speedy 3D Generation [73.36690511083894]
本稿では,LN3Diffと呼ばれる新しいフレームワークを導入し,統一された3次元拡散パイプラインに対処する。
提案手法では,3次元アーキテクチャと変分オートエンコーダを用いて,入力画像を構造化されたコンパクトな3次元潜在空間に符号化する。
3次元生成のためのShapeNetの最先端性能を実現し,モノクロ3次元再構成と条件付き3次元生成において優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-18T17:54:34Z) - Text-to-3D Generation with Bidirectional Diffusion using both 2D and 3D
priors [16.93758384693786]
双方向拡散(Bidirectional Diffusion、BiDiff)は、3次元と2次元の拡散プロセスの両方を組み込んだ統合フレームワークである。
我々のモデルは高品質で多種多様でスケーラブルな3D生成を実現する。
論文 参考訳(メタデータ) (2023-12-07T10:00:04Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal Pre-training Paradigm [111.16358607889609]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。