論文の概要: From Cheap Geometry to Expensive Physics: Elevating Neural Operators via Latent Shape Pretraining
- arxiv url: http://arxiv.org/abs/2509.25788v1
- Date: Tue, 30 Sep 2025 05:01:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:45:00.021984
- Title: From Cheap Geometry to Expensive Physics: Elevating Neural Operators via Latent Shape Pretraining
- Title(参考訳): チープ幾何学から高エネルギー物理へ:潜時形状事前学習による神経オペレータの上昇
- Authors: Zhizhou Zhang, Youjia Wu, Kaixuan Zhang, Yanjia Wang,
- Abstract要約: 工業設計評価は、しばしば偏微分方程式(PDE)のシミュレーションに依存する
演算子学習はPDEソリューション予測を加速するための有望なアプローチとして登場した。
我々は、この豊富な物理に依存しない資源をうまく活用するための2段階のフレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.838293051443775
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Industrial design evaluation often relies on high-fidelity simulations of governing partial differential equations (PDEs). While accurate, these simulations are computationally expensive, making dense exploration of design spaces impractical. Operator learning has emerged as a promising approach to accelerate PDE solution prediction; however, its effectiveness is often limited by the scarcity of labeled physics-based data. At the same time, large numbers of geometry-only candidate designs are readily available but remain largely untapped. We propose a two-stage framework to better exploit this abundant, physics-agnostic resource and improve supervised operator learning under limited labeled data. In Stage 1, we pretrain an autoencoder on a geometry reconstruction task to learn an expressive latent representation without PDE labels. In Stage 2, the neural operator is trained in a standard supervised manner to predict PDE solutions, using the pretrained latent embeddings as inputs instead of raw point clouds. Transformer-based architectures are adopted for both the autoencoder and the neural operator to handle point cloud data and integrate both stages seamlessly. Across four PDE datasets and three state-of-the-art transformer-based neural operators, our approach consistently improves prediction accuracy compared to models trained directly on raw point cloud inputs. These results demonstrate that representations from physics-agnostic pretraining provide a powerful foundation for data-efficient operator learning.
- Abstract(参考訳): 工業設計評価は、しばしば支配偏微分方程式(PDE)の高忠実度シミュレーションに依存する。
正確性はあるものの、これらのシミュレーションは計算に高価であり、設計空間の密集した探索は現実的ではない。
演算子学習はPDEソリューション予測を加速するための有望なアプローチとして現れてきたが、その有効性はラベル付き物理学ベースのデータの不足によって制限されることが多い。
同時に、多くの幾何学のみの候補設計が容易に利用可能であるが、ほとんど未完成のままである。
我々は、この豊富な物理に依存しないリソースをうまく活用し、限られたラベル付きデータの下で教師付き演算子学習を改善するための2段階のフレームワークを提案する。
ステージ1では、自動エンコーダを事前学習し、PDEラベルを使わずに表現的潜在表現を学習する。
ステージ2では、ニューラルネットワークオペレータは、生の点雲の代わりに事前訓練された潜伏埋め込みを入力として、PDEソリューションを予測するための標準的な教師付き方法で訓練される。
トランスフォーマーベースのアーキテクチャは、オートエンコーダとニューラル演算子の両方に採用され、ポイントクラウドデータを処理し、両方のステージをシームレスに統合する。
4つのPDEデータセットと3つの最先端トランスフォーマーベースのニューラル演算子に対して,本手法は生の点クラウド入力を直接トレーニングしたモデルと比較して予測精度を一貫して向上させる。
これらの結果は、物理に依存しない事前学習の表現が、データ効率のよい演算子学習の強力な基盤となることを示している。
関連論文リスト
- Physics-Informed Latent Neural Operator for Real-time Predictions of Complex Physical Systems [0.0]
本稿では,制御物理を直接学習プロセスに統合する物理インフォームトニューラルネットワークフレームワークPI-Latent-NOを提案する。
私たちのアーキテクチャでは、ソリューションの低次元表現を学習するLatent-DeepONetと、この遅延表現を物理空間にマッピングするRestruction-DeepONetという、2つの結合したDeepONetsトレーニングのエンドツーエンドが特徴です。
論文 参考訳(メタデータ) (2025-01-14T20:38:30Z) - A physics-informed transformer neural operator for learning generalized solutions of initial boundary value problems [0.0]
物理インフォームドトランスニューラル演算子を開発し,初期条件と境界条件を効率よく一般化する。
PINTOモデルは、トレーニングコロケーションポイントに含まれない時間ステップにおける対流とバーガースの方程式を正確に解くことができる。
論文 参考訳(メタデータ) (2024-12-12T07:22:02Z) - OPUS: Occupancy Prediction Using a Sparse Set [64.60854562502523]
学習可能なクエリの集合を用いて、占有された場所とクラスを同時に予測するフレームワークを提案する。
OPUSには、モデルパフォーマンスを高めるための非自明な戦略が組み込まれている。
最も軽量なモデルではOcc3D-nuScenesデータセットの2倍 FPS に優れたRayIoUが得られる一方、最も重いモデルは6.1 RayIoUを上回ります。
論文 参考訳(メタデータ) (2024-09-14T07:44:22Z) - DeltaPhi: Learning Physical Trajectory Residual for PDE Solving [54.13671100638092]
我々は,物理軌道残差学習(DeltaPhi)を提案し,定式化する。
既存のニューラル演算子ネットワークに基づく残差演算子マッピングのサロゲートモデルについて学習する。
直接学習と比較して,PDEの解法には物理残差学習が望ましいと結論づける。
論文 参考訳(メタデータ) (2024-06-14T07:45:07Z) - Data-Efficient Operator Learning via Unsupervised Pretraining and In-Context Learning [45.78096783448304]
本研究では,PDE演算子学習のための教師なし事前学習を設計する。
シミュレーションソリューションを使わずにラベルなしのPDEデータをマイニングし、物理に着想を得た再構成ベースのプロキシタスクでニューラルネットワークを事前訓練する。
提案手法は,データ効率が高く,より一般化可能であり,従来の視覚予測モデルよりも優れる。
論文 参考訳(メタデータ) (2024-02-24T06:27:33Z) - SPOT: Scalable 3D Pre-training via Occupancy Prediction for Learning Transferable 3D Representations [76.45009891152178]
トレーニング-ファインタニングアプローチは、さまざまな下流データセットとタスクをまたいだトレーニング済みのバックボーンを微調整することで、ラベル付けの負担を軽減することができる。
本稿では, 一般表現学習が, 占領予測のタスクを通じて達成できることを, 初めて示す。
本研究は,LiDAR 点の理解を促進するとともに,LiDAR の事前訓練における今後の進歩の道を開くことを目的とする。
論文 参考訳(メタデータ) (2023-09-19T11:13:01Z) - Training Deep Surrogate Models with Large Scale Online Learning [48.7576911714538]
ディープラーニングアルゴリズムは、PDEの高速解を得るための有効な代替手段として登場した。
モデルは通常、ソルバによって生成された合成データに基づいてトレーニングされ、ディスクに格納され、トレーニングのために読み返される。
ディープサロゲートモデルのためのオープンソースのオンライントレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-28T12:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。