論文の概要: Pre-Generating Multi-Difficulty PDE Data for Few-Shot Neural PDE Solvers
- arxiv url: http://arxiv.org/abs/2512.00564v1
- Date: Sat, 29 Nov 2025 17:25:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.299447
- Title: Pre-Generating Multi-Difficulty PDE Data for Few-Shot Neural PDE Solvers
- Title(参考訳): Few-Shot Neural PDEソルバのための多自由度PDEデータの事前生成
- Authors: Naman Choudhary, Vedant Singh, Ameet Talwalkar, Nicholas Matthew Boffi, Mikhail Khodak, Tanya Marwah,
- Abstract要約: 2次元非圧縮性ナビエ-ストークスの移動困難性について検討した。
古典的に多くの低・中難解な例を解くことで、はるかに少ないサンプルから高微分物理学を学ぶことができる。
- 参考スコア(独自算出の注目度): 21.8954267394686
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A key aspect of learned partial differential equation (PDE) solvers is that the main cost often comes from generating training data with classical solvers rather than learning the model itself. Another is that there are clear axes of difficulty--e.g., more complex geometries and higher Reynolds numbers--along which problems become (1) harder for classical solvers and thus (2) more likely to benefit from neural speedups. Towards addressing this chicken-and-egg challenge, we study difficulty transfer on 2D incompressible Navier-Stokes, systematically varying task complexity along geometry (number and placement of obstacles), physics (Reynolds number), and their combination. Similar to how it is possible to spend compute to pre-train foundation models and improve their performance on downstream tasks, we find that by classically solving (analogously pre-generating) many low and medium difficulty examples and including them in the training set, it is possible to learn high-difficulty physics from far fewer samples. Furthermore, we show that by combining low and high difficulty data, we can spend 8.9x less compute on pre-generating a dataset to achieve the same error as using only high difficulty examples. Our results highlight that how we allocate classical-solver compute across difficulty levels is as important as how much we allocate overall, and suggest substantial gains from principled curation of pre-generated PDE data for neural solvers. Our code is available at https://github.com/Naman-Choudhary-AI-ML/pregenerating-pde
- Abstract(参考訳): 学習偏微分方程式(PDE)の鍵となる側面は、モデル自体を学習するのではなく、古典的な解法を用いてトレーニングデータを生成することにある。
もう一つは、例えば、より複雑な測地、より高次のレイノルズ数といった困難さの明確な軸が存在し、古典的な解法では問題が難しくなり、(2)神経のスピードアップの恩恵を受ける可能性が高くなることである。
このニワトリ・アンド・エッグの課題に対処するために,2次元非圧縮性ナビエ・ストークス(Navier-Stokes)の移動の困難さ,幾何学(障害物の数と配置),物理(レイノルズ数)およびそれらの組み合わせの体系的変化について検討した。
基礎モデルの事前学習や下流タスクの性能向上に計算を費やすことができるのと同じように、古典的に多くの低・中難題を解き、トレーニングセットに含めることで、はるかに少ないサンプルから高微分物理学を学ぶことができる。
さらに,低難易度データと高難易度データを組み合わせることで,データセットの事前生成に8.9倍の計算時間を費やすことで,高難易度データのみを用いて同じエラーを発生させることができることを示す。
この結果から,従来の解法計算を難易度にわたって割り当てる手法は,全体としての割当量と同じくらい重要であり,ニューラルソルバのためのPDEデータの定式化によるかなりの利得が示唆された。
私たちのコードはhttps://github.com/Naman-Choudhary-AI-ML/pregenerating-pdeで公開されています。
関連論文リスト
- Learning to Pose Problems: Reasoning-Driven and Solver-Adaptive Data Synthesis for Large Reasoning Models [54.29243291958429]
本研究は, 生成前に問題方向を明示的に計画する問題生成装置の開発である。
我々は,合成問題に対する解法者のフィードバックを報奨信号として扱い,生成元が難易度を調整できるようにする。
本手法は平均2.5%の改善を実現し,言語モデルと視覚言語モデルの両方に一般化する。
論文 参考訳(メタデータ) (2025-11-13T03:08:51Z) - ScaleDiff: Scaling Difficult Problems for Advanced Mathematical Reasoning [51.946959481392064]
大規模推論モデル (LRM) は複雑な問題解決において顕著な能力を示している。
難しい問題の生成をスケールするために設計されたパイプラインであるScaleDiffを提案する。
我々のパイプラインは、より大きくて高価な教師モデルに頼ることなく、高度な推論能力を効果的に伝達できることを示します。
論文 参考訳(メタデータ) (2025-09-25T12:22:44Z) - ConDiff: A Challenging Dataset for Neural Solvers of Partial Differential Equations [40.6591136324878]
本稿では,科学的機械学習のための新しいデータセットであるConDiffを紹介する。
ConDiffは、偏微分方程式(PDE)の多くの応用における基本的な問題である空間依存係数を持つパラメトリック拡散方程式に焦点を当てている。
この種の問題は、学術的な関心事だけでなく、様々な環境・産業問題の記述の基礎にもなっている。
このようにして、ConDiffは、完全な合成と使いやすさを維持しながら、現実世界の問題とのギャップを短くする。
論文 参考訳(メタデータ) (2024-06-07T07:35:14Z) - Fast training of accurate physics-informed neural networks without gradient descent [4.411766183442036]
時空分離の原理に基づく新しいPINNであるFrozen-PINNを提案する。
8つのPDEベンチマークにおいて、Frozen-PINNは最先端のPINNよりも優れたトレーニング効率と精度を達成する。
論文 参考訳(メタデータ) (2024-05-31T14:24:39Z) - Generating synthetic data for neural operators [0.0]
PDEを数値的に解くのを避ける「後方」データ生成手法を提案する。
これにより、各データポイントに対してPDEを数値的に解くのではなく、微分を演算することで、トレーニングペア$(f_j, u_j)$を生成する。
実験により、この合成データに基づいてトレーニングされたモデルは、標準解法によって生成されたデータでテストすると、よく一般化されることが示された。
論文 参考訳(メタデータ) (2024-01-04T18:31:21Z) - Learning to Solve PDE-constrained Inverse Problems with Graph Networks [51.89325993156204]
科学と工学にまたがる多くの応用分野において、偏微分方程式(PDE)によって定義される制約で逆問題を解決することに興味がある。
ここでは、これらのPDE制約された逆問題を解決するために、GNNを探索する。
GNNを用いて計算速度を最大90倍に向上させる。
論文 参考訳(メタデータ) (2022-06-01T18:48:01Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Conditional physics informed neural networks [85.48030573849712]
固有値問題のクラス解を推定するための条件付きPINN(物理情報ニューラルネットワーク)を紹介します。
一つのディープニューラルネットワークが、問題全体に対する偏微分方程式の解を学習できることが示される。
論文 参考訳(メタデータ) (2021-04-06T18:29:14Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。