論文の概要: Scale-Consistent Learning for Partial Differential Equations
- arxiv url: http://arxiv.org/abs/2507.18813v1
- Date: Thu, 24 Jul 2025 21:29:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-28 16:16:48.762872
- Title: Scale-Consistent Learning for Partial Differential Equations
- Title(参考訳): 部分微分方程式のスケール一貫性学習
- Authors: Zongyi Li, Samuel Lanthaler, Catherine Deng, Michael Chen, Yixuan Wang, Kamyar Azizzadenesheli, Anima Anandkumar,
- Abstract要約: 本稿では,PDEのスケール一貫性特性に基づくデータ拡張手法を提案する。
次に、幅広いスケールをモデル化できるスケールインフォームド・ニューラル演算子を設計する。
スケール一貫性によって、1000ドルの$Re$でトレーニングされたモデルは、250から10000までの$Re$に一般化することができる。
- 参考スコア(独自算出の注目度): 79.48661503591943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning (ML) models have emerged as a promising approach for solving partial differential equations (PDEs) in science and engineering. Previous ML models typically cannot generalize outside the training data; for example, a trained ML model for the Navier-Stokes equations only works for a fixed Reynolds number ($Re$) on a pre-defined domain. To overcome these limitations, we propose a data augmentation scheme based on scale-consistency properties of PDEs and design a scale-informed neural operator that can model a wide range of scales. Our formulation leverages the facts: (i) PDEs can be rescaled, or more concretely, a given domain can be re-scaled to unit size, and the parameters and the boundary conditions of the PDE can be appropriately adjusted to represent the original solution, and (ii) the solution operators on a given domain are consistent on the sub-domains. We leverage these facts to create a scale-consistency loss that encourages matching the solutions evaluated on a given domain and the solution obtained on its sub-domain from the rescaled PDE. Since neural operators can fit to multiple scales and resolutions, they are the natural choice for incorporating scale-consistency loss during training of neural PDE solvers. We experiment with scale-consistency loss and the scale-informed neural operator model on the Burgers' equation, Darcy Flow, Helmholtz equation, and Navier-Stokes equations. With scale-consistency, the model trained on $Re$ of 1000 can generalize to $Re$ ranging from 250 to 10000, and reduces the error by 34% on average of all datasets compared to baselines.
- Abstract(参考訳): 機械学習(ML)モデルは、科学と工学において偏微分方程式(PDE)を解くための有望なアプローチとして登場した。
例えば、Navier-Stokes方程式の訓練されたMLモデルは、事前に定義されたドメイン上の固定されたレイノルズ数(Re$)に対してのみ機能する。
これらの制約を克服するために、PDEのスケール一貫性特性に基づくデータ拡張手法を提案し、幅広いスケールをモデル化できるスケールインフォームド・ニューラル演算子を設計する。
私たちの定式化は事実を活用する。
(i)PDEを再スケールすることも、より具体的には、与えられたドメインを単位サイズに再スケールすることもでき、PDEのパラメータと境界条件を適切に調整して元のソリューションを表現することもできる。
(ii) 与えられた領域上の解作用素は、サブドメイン上で一貫したものである。
我々は、これらの事実を活用して、あるドメインで評価されたソリューションと、再スケールされたPDEから得られたサブドメインで得られたソリューションのマッチングを促進するスケール一貫性損失を生成する。
ニューラル作用素は複数のスケールと解像度に適合するので、ニューラルPDEソルバのトレーニング中にスケール一貫性損失を組み込むには自然な選択である。
我々は,バーガーズ方程式,ダーシーフロー,ヘルムホルツ方程式,ナビエ・ストークス方程式のスケール一貫性損失とスケールインフォームドニューラル演算子モデルを用いて実験を行った。
スケール一貫性によって、1000ドルの$Re$でトレーニングされたモデルは、250から10000ドルの$Re$に一般化でき、ベースラインと比較して、すべてのデータセットの平均でエラーを34%削減できる。
関連論文リスト
- A Multimodal PDE Foundation Model for Prediction and Scientific Text Descriptions [13.48986376824454]
PDE基礎モデルは、ニューラルネットワークを使用して、複数の微分方程式への近似を同時に訓練する。
本稿では,変換器をベースとしたアーキテクチャを応用し,解演算子を近似した新しいマルチモーダル深層学習手法を提案する。
我々のアプローチは解釈可能な科学的テキスト記述を生成し、基礎となる力学と解の性質について深い洞察を提供する。
論文 参考訳(メタデータ) (2025-02-09T20:50:28Z) - Diffeomorphic Latent Neural Operators for Data-Efficient Learning of Solutions to Partial Differential Equations [5.308435208832696]
計算された解演算子から偏微分方程式系(PDE)への近似は、科学や工学の様々な分野において必要である。
十分なデータのサンプル化を必要とせず,複数の領域にまたがって一般化可能なPDEソリューション演算子を学習するために,少数の真理解場に潜伏したニューラル演算子を訓練することができることを提案する。
論文 参考訳(メタデータ) (2024-11-27T03:16:00Z) - Self-supervised Pretraining for Partial Differential Equations [0.0]
本稿では、トランスフォーマーに基づくニューラルネットワークアーキテクチャの最近の進歩を活用し、ニューラルPDEソルバを構築するための新しいアプローチについて述べる。
我々のモデルは、ネットワークを再トレーニングすることなく、PDEパラメータの異なる値に対するソリューションを提供することができる。
論文 参考訳(メタデータ) (2024-07-03T16:39:32Z) - Unisolver: PDE-Conditional Transformers Are Universal PDE Solvers [55.0876373185983]
我々は、多様なデータに基づいて訓練され、多様なPDEで条件付けされた新しいトランスフォーマーモデルUnisolverを提案する。
Unisolverは3つの挑戦的な大規模ベンチマークで一貫した最先端を実現し、優れたパフォーマンスと一般化性を示している。
論文 参考訳(メタデータ) (2024-05-27T15:34:35Z) - Deep Equilibrium Based Neural Operators for Steady-State PDEs [100.88355782126098]
定常PDEに対する重み付けニューラルネットワークアーキテクチャの利点について検討する。
定常PDEの解を直接解くFNOアーキテクチャの深い平衡変種であるFNO-DEQを提案する。
論文 参考訳(メタデータ) (2023-11-30T22:34:57Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Koopman neural operator as a mesh-free solver of non-linear partial differential equations [15.410070455154138]
これらの課題を克服するために,新しいニューラル演算子であるクープマンニューラル演算子(KNO)を提案する。
力学系のすべての可能な観測を統括する無限次元作用素であるクープマン作用素を近似することにより、非線型PDEファミリーの解を等価に学べる。
KNOは、従来の最先端モデルと比較して顕著なアドバンテージを示している。
論文 参考訳(メタデータ) (2023-01-24T14:10:15Z) - LordNet: An Efficient Neural Network for Learning to Solve Parametric Partial Differential Equations without Simulated Data [47.49194807524502]
エンタングルメントをモデル化するためのチューナブルで効率的なニューラルネットワークであるLordNetを提案する。
ポアソン方程式と(2Dおよび3D)ナビエ・ストークス方程式を解く実験は、長距離の絡み合いがロードネットによってうまくモデル化できることを示した。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Solving PDEs on Unknown Manifolds with Machine Learning [8.220217498103315]
本稿では,未知多様体上の楕円型PDEを解くためのメッシュフリー計算フレームワークと機械学習理論を提案する。
提案したNNソルバは,新しいデータポイント上の一般化とほぼ同一の誤差を持つ新しいデータポイント上でPDEを強固に一般化できることを示す。
論文 参考訳(メタデータ) (2021-06-12T03:55:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。