論文の概要: Tensor Gaussian Processes: Efficient Solvers for Nonlinear PDEs
- arxiv url: http://arxiv.org/abs/2510.13772v1
- Date: Wed, 15 Oct 2025 17:23:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.788817
- Title: Tensor Gaussian Processes: Efficient Solvers for Nonlinear PDEs
- Title(参考訳): テンソルガウス過程:非線形PDEの効率的な解法
- Authors: Qiwei Yuan, Zhitong Xu, Yinghao Chen, Yiming Xu, Houman Owhadi, Shandian Zhe,
- Abstract要約: TGPSは偏微分方程式の機械学習解法である。
1次元GPの集合を学習する作業を減らす。
既存の手法に比べて精度と効率が優れている。
- 参考スコア(独自算出の注目度): 16.38975732337055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning solvers for partial differential equations (PDEs) have attracted growing interest. However, most existing approaches, such as neural network solvers, rely on stochastic training, which is inefficient and typically requires a great many training epochs. Gaussian process (GP)/kernel-based solvers, while mathematical principled, suffer from scalability issues when handling large numbers of collocation points often needed for challenging or higher-dimensional PDEs. To overcome these limitations, we propose TGPS, a tensor-GP-based solver that models factor functions along each input dimension using one-dimensional GPs and combines them via tensor decomposition to approximate the full solution. This design reduces the task to learning a collection of one-dimensional GPs, substantially lowering computational complexity, and enabling scalability to massive collocation sets. For efficient nonlinear PDE solving, we use a partial freezing strategy and Newton's method to linerize the nonlinear terms. We then develop an alternating least squares (ALS) approach that admits closed-form updates, thereby substantially enhancing the training efficiency. We establish theoretical guarantees on the expressivity of our model, together with convergence proof and error analysis under standard regularity assumptions. Experiments on several benchmark PDEs demonstrate that our method achieves superior accuracy and efficiency compared to existing approaches.
- Abstract(参考訳): 偏微分方程式(PDE)に対する機械学習の解法が注目されている。
しかし、ニューラルネットワークソルバのような既存のアプローチのほとんどは確率的トレーニングに依存しており、これは非効率であり、典型的には多くの訓練エポックを必要とする。
ガウス過程(GP)/カーネルベースの解法は数学的原理ではあるものの、挑戦的あるいは高次元PDEに必要な多数のコロケーションポイントを扱う場合、スケーラビリティの問題に悩まされる。
これらの制限を克服するため、TGPSは1次元GPを用いて各入力次元に沿って関数をモデル化し、テンソル分解によってそれらを結合して全解を近似するテンソルGPベースの解法である。
この設計により、一次元GPの集合を学習するタスクを削減し、計算複雑性を大幅に低減し、大規模なコロケーションセットへのスケーラビリティを実現する。
効率的な非線形PDE解法では、部分凍結戦略とニュートン法を用いて非線形項を線形化する。
次に、クローズドフォーム更新を許容する交代最小二乗(ALS)アプローチを開発し、トレーニング効率を大幅に向上させる。
我々は,標準正則性仮定の下での収束証明と誤り解析とともに,モデルの表現性に関する理論的保証を確立する。
いくつかのベンチマークPDE実験により,本手法は既存手法と比較して精度と効率が優れていることが示された。
関連論文リスト
- Fast Gaussian Processes under Monotonicity Constraints [4.184089306037526]
単調性制約下での制約付きGPモデル構築のための新しい仮想点ベースフレームワークを提案する。
このフレームワークは微分方程式系の代理モデルを構築するためにさらに応用される。
論文 参考訳(メタデータ) (2025-07-09T09:09:00Z) - TensorGRaD: Tensor Gradient Robust Decomposition for Memory-Efficient Neural Operator Training [91.8932638236073]
textbfTensorGRaDは,重み付けに伴うメモリ問題に直接対処する新しい手法である。
SparseGRaD は総メモリ使用量を 50% 以上削減し,同時に精度も向上することを示した。
論文 参考訳(メタデータ) (2025-01-04T20:51:51Z) - Solving Partial Differential Equations with Random Feature Models [0.7614628596146601]
PDEを効率的に解くためのランダムな特徴ベースのフレームワークを提案する。
多数のコロケーションポイントを持つ問題に直面する最先端の解法とは対照的に,提案手法は計算複雑性を低減させる。
論文 参考訳(メタデータ) (2024-12-31T05:48:31Z) - Meta-PDE: Learning to Solve PDEs Quickly Without a Mesh [24.572840023107574]
偏微分方程式(PDE)は、しばしば計算的に解くのが難しい。
本稿では,関連するPDEの分布から,問題の迅速な解法を学習するメタラーニング手法を提案する。
論文 参考訳(メタデータ) (2022-11-03T06:17:52Z) - Learning differentiable solvers for systems with hard constraints [48.54197776363251]
ニューラルネットワーク(NN)によって定義される関数に対する偏微分方程式(PDE)制約を強制する実践的手法を提案する。
我々は、任意のNNアーキテクチャに組み込むことができる微分可能なPDE制約層を開発した。
その結果、NNアーキテクチャに直接ハード制約を組み込むことで、制約のない目的のトレーニングに比べてテストエラーがはるかに少ないことがわかった。
論文 参考訳(メタデータ) (2022-07-18T15:11:43Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Semi-Implicit Neural Solver for Time-dependent Partial Differential
Equations [4.246966726709308]
本稿では,PDEの任意のクラスに対して,データ駆動方式で最適な反復スキームを学習するためのニューラルソルバを提案する。
従来の反復解法に類似したニューラルソルバの正当性と収束性に関する理論的保証を提供する。
論文 参考訳(メタデータ) (2021-09-03T12:03:10Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。