論文の概要: Active Learning for Neural PDE Solvers
- arxiv url: http://arxiv.org/abs/2408.01536v1
- Date: Fri, 2 Aug 2024 18:48:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-06 19:40:03.154437
- Title: Active Learning for Neural PDE Solvers
- Title(参考訳): ニューラルPDE解の能動学習
- Authors: Daniel Musekamp, Marimuthu Kalimuthu, David Holzmüller, Makoto Takamoto, Mathias Niepert,
- Abstract要約: Active Learningは、モデルをより小さなトレーニングセットで同じ精度でサロゲートするのに役立ちます。
モジュール型かつアクティブな学習ベンチマークであるAL4PDEを紹介する。
ALは,ランダムサンプリングと比較して平均誤差を最大71%削減することを示した。
- 参考スコア(独自算出の注目度): 18.665448858377694
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Solving partial differential equations (PDEs) is a fundamental problem in engineering and science. While neural PDE solvers can be more efficient than established numerical solvers, they often require large amounts of training data that is costly to obtain. Active Learning (AL) could help surrogate models reach the same accuracy with smaller training sets by querying classical solvers with more informative initial conditions and PDE parameters. While AL is more common in other domains, it has yet to be studied extensively for neural PDE solvers. To bridge this gap, we introduce AL4PDE, a modular and extensible active learning benchmark. It provides multiple parametric PDEs and state-of-the-art surrogate models for the solver-in-the-loop setting, enabling the evaluation of existing and the development of new AL methods for PDE solving. We use the benchmark to evaluate batch active learning algorithms such as uncertainty- and feature-based methods. We show that AL reduces the average error by up to 71% compared to random sampling and significantly reduces worst-case errors. Moreover, AL generates similar datasets across repeated runs, with consistent distributions over the PDE parameters and initial conditions. The acquired datasets are reusable, providing benefits for surrogate models not involved in the data generation.
- Abstract(参考訳): 偏微分方程式 (PDE) の解法は工学と科学の基本的な問題である。
ニューラルPDEソルバは、確立された数値ソルバよりも効率がよいが、取得にコストがかかる大量のトレーニングデータを必要とすることが多い。
アクティブラーニング(AL)は、より情報のある初期条件とPDEパラメータで古典的解法をクエリすることで、より小さなトレーニングセットでモデルが同じ精度に達するのに役立つ。
ALは他の領域ではより一般的であるが、神経性PDE解法についてはまだ広く研究されていない。
このギャップを埋めるために、モジュール的で拡張可能なアクティブラーニングベンチマークであるAL4PDEを導入する。
複数のパラメトリックPDEと最先端サロゲートモデルを提供し、PDE解決のための既存手法の評価と新たなAL手法の開発を可能にする。
このベンチマークを用いて、不確実性や特徴に基づく手法のようなバッチアクティブな学習アルゴリズムを評価する。
ALは,ランダムサンプリングと比較して平均誤差を最大71%削減し,最悪のケースエラーを著しく低減することを示した。
さらにALは、PDEパラメータと初期条件を一貫した分布で、繰り返し実行される複数の類似データセットを生成する。
取得したデータセットは再利用可能であり、データ生成に関与しないモデルのサロゲートにメリットを提供する。
関連論文リスト
- Latent Neural Operator Pretraining for Solving Time-Dependent PDEs [5.8039987932401225]
本稿では,LNO(Latent Neural Operator Pretraining)をベースとしたLNOP(Latent Neural Operator Pretraining)フレームワークを提案する。
提案するLNOPフレームワークは, 4つの問題に対して解の誤差を31.7%削減し, 微調整後の57.1%まで改善することができる。
これらの結果から,本手法は非制約のニューラル演算子に比べて解の精度,転送能力,データ効率の面で競争力が高いことがわかった。
論文 参考訳(メタデータ) (2024-10-26T06:57:22Z) - Partial-differential-algebraic equations of nonlinear dynamics by Physics-Informed Neural-Network: (I) Operator splitting and framework assessment [51.3422222472898]
偏微分代数方程式の解法として, 新規な物理情報ネットワーク(PINN)の構築法が提案されている。
これらの新しい手法には PDE 形式があり、これは未知の従属変数が少ない低レベル形式からより従属変数を持つ高レベル形式へと進化している。
論文 参考訳(メタデータ) (2024-07-13T22:48:17Z) - Unisolver: PDE-Conditional Transformers Are Universal PDE Solvers [55.0876373185983]
広範にPDEを解くことができるUniversal PDEソルバ(Unisolver)を提案する。
私たちの重要な発見は、PDEソリューションが基本的に一連のPDEコンポーネントの制御下にあることです。
Unisolverは3つの挑戦的な大規模ベンチマークにおいて、一貫した最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-05-27T15:34:35Z) - Kolmogorov n-Widths for Multitask Physics-Informed Machine Learning (PIML) Methods: Towards Robust Metrics [8.90237460752114]
このトピックは、マルチタスク学習(multitask learning)と呼ばれる、シングルまたはPDE問題の集合を解決するための、幅広いメソッドとモデルを含んでいる。
PIMLは、PDE問題を解決する際に、大規模なデータの代わりに機械学習モデルのトレーニングプロセスに物理法則を組み込むことによって特徴付けられる。
論文 参考訳(メタデータ) (2024-02-16T23:21:40Z) - Physics-constrained robust learning of open-form partial differential equations from limited and noisy data [1.50528618730365]
本研究では,自由形式偏微分方程式(PDE)を有限・雑音データから頑健に解明する枠組みを提案する。
ニューラルネットワークに基づく予測モデルは、システム応答に適合し、生成されたPDEに対する報酬評価器として機能する。
数値実験により, 非線形力学系から, 極めてノイズの多いデータで支配方程式を発見できることを示す。
論文 参考訳(メタデータ) (2023-09-14T12:34:42Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Meta-PDE: Learning to Solve PDEs Quickly Without a Mesh [24.572840023107574]
偏微分方程式(PDE)は、しばしば計算的に解くのが難しい。
本稿では,関連するPDEの分布から,問題の迅速な解法を学習するメタラーニング手法を提案する。
論文 参考訳(メタデータ) (2022-11-03T06:17:52Z) - Lie Point Symmetry Data Augmentation for Neural PDE Solvers [69.72427135610106]
本稿では,ニューラルPDEソルバサンプルの複雑性を改善することにより,この問題を部分的に緩和する手法を提案する。
PDEの文脈では、データ変換の完全なリストを定量的に導き出せることが分かりました。
神経性PDEソルバサンプルの複雑さを桁違いに改善するために、どのように容易に展開できるかを示す。
論文 参考訳(メタデータ) (2022-02-15T18:43:17Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Solver-in-the-Loop: Learning from Differentiable Physics to Interact
with Iterative PDE-Solvers [26.444103444634994]
認識されたPDEが捉えない効果を補正することにより、機械学習が解の精度を向上させることができることを示す。
従来使用されていた学習手法は,学習ループにソルバを組み込む手法により大幅に性能が向上していることがわかった。
これにより、以前の補正を考慮に入れたリアルな入力分布がモデルに提供される。
論文 参考訳(メタデータ) (2020-06-30T18:00:03Z) - An Online Method for A Class of Distributionally Robust Optimization
with Non-Convex Objectives [54.29001037565384]
本稿では,オンライン分散ロバスト最適化(DRO)のクラスを解決するための実用的なオンライン手法を提案する。
本研究は,ネットワークの堅牢性向上のための機械学習における重要な応用を実証する。
論文 参考訳(メタデータ) (2020-06-17T20:19:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。