論文の概要: From Local Interactions to Global Operators: Scalable Gaussian Process Operator for Physical Systems
- arxiv url: http://arxiv.org/abs/2506.15906v1
- Date: Wed, 18 Jun 2025 22:40:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:04.875241
- Title: From Local Interactions to Global Operators: Scalable Gaussian Process Operator for Physical Systems
- Title(参考訳): 局所相互作用からグローバル演算子:物理システムのためのスケーラブルガウスプロセス演算子
- Authors: Sawan Kumar, Tapas Tripura, Rajdip Nayek, Souvik Chakraborty,
- Abstract要約: 本稿では,カーネル設計による空間性,局所性,構造情報を活かした,新しいスケーラブルなGPOを提案する。
我々のフレームワークは、様々な離散化スケールで常に高い精度を達成できることを実証する。
- 参考スコア(独自算出の注目度): 7.807210884802377
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Operator learning offers a powerful paradigm for solving parametric partial differential equations (PDEs), but scaling probabilistic neural operators such as the recently proposed Gaussian Processes Operators (GPOs) to high-dimensional, data-intensive regimes remains a significant challenge. In this work, we introduce a novel, scalable GPO, which capitalizes on sparsity, locality, and structural information through judicious kernel design. Addressing the fundamental limitation of cubic computational complexity, our method leverages nearest-neighbor-based local kernel approximations in the spatial domain, sparse kernel approximation in the parameter space, and structured Kronecker factorizations to enable tractable inference on large-scale datasets and high-dimensional input. While local approximations often introduce accuracy trade-offs due to limited kernel interactions, we overcome this by embedding operator-aware kernel structures and employing expressive, task-informed mean functions derived from neural operator architectures. Through extensive evaluations on a broad class of nonlinear PDEs - including Navier-Stokes, wave advection, Darcy flow, and Burgers' equations - we demonstrate that our framework consistently achieves high accuracy across varying discretization scales. These results underscore the potential of our approach to bridge the gap between scalability and fidelity in GPO, offering a compelling foundation for uncertainty-aware modeling in complex physical systems.
- Abstract(参考訳): 演算子学習はパラメトリック偏微分方程式(PDE)を解くための強力なパラダイムを提供するが、最近提案されたガウス過程演算子(GPO)のような確率論的ニューラルネットワークを高次元のデータ集約型状態に拡張することは依然として大きな課題である。
そこで本研究では, 並列性, 局所性, 構造情報を付加した, スケーラブルな新しいGPOを提案する。
計算複雑性の基本的な制限に対処するため,提案手法では,空間領域における近傍近傍の局所カーネル近似,パラメータ空間におけるスパースカーネル近似,大規模データセットと高次元入力に対するトラクタブル推論を可能にする構造化Kronecker分解を利用する。
局所近似は、カーネルの相互作用が限られているため、しばしば正確なトレードオフをもたらすが、演算子を意識したカーネル構造を埋め込んで、ニューラル演算子アーキテクチャから派生した表現的でタスクインフォームドな平均関数を採用することでこれを克服する。
Navier-Stokes、Wave advection、Darcy Flow、Burgersの方程式を含む幅広い非線形PDEの広範な評価を通じて、我々のフレームワークは、様々な離散化スケールにわたる高い精度を一貫して達成していることを示す。
これらの結果は、GPOのスケーラビリティと忠実さのギャップを埋めるアプローチの可能性を強調し、複雑な物理システムにおける不確実性を考慮したモデリングのための魅力的な基盤を提供する。
関連論文リスト
- Efficient Transformed Gaussian Process State-Space Models for Non-Stationary High-Dimensional Dynamical Systems [49.819436680336786]
本研究では,高次元非定常力学系のスケーラブルかつ柔軟なモデリングのための効率的な変換ガウス過程状態空間モデル(ETGPSSM)を提案する。
具体的には、ETGPSSMは、単一の共有GPと入力依存の正規化フローを統合し、複雑な非定常遷移ダイナミクスを捉える前に、表現的な暗黙のプロセスを生成する。
ETGPSSMは、計算効率と精度の観点から、既存のGPSSMとニューラルネットワークベースのSSMより優れています。
論文 参考訳(メタデータ) (2025-03-24T03:19:45Z) - Probabilistic neural operators for functional uncertainty quantification [14.08907045605149]
本稿では,ニューラル演算子の出力関数空間上の確率分布を学習するフレームワークである確率論的ニューラル演算子(PNO)を紹介する。
PNOは、厳密な適切なスコアリングルールに基づく生成モデリングにより、ニューラル演算子を拡張し、不確実性情報をトレーニングプロセスに直接統合する。
論文 参考訳(メタデータ) (2025-02-18T14:42:11Z) - Towards Gaussian Process for operator learning: an uncertainty aware resolution independent operator learning algorithm for computational mechanics [8.528817025440746]
本稿では、パラメトリック微分方程式を解くための新しいガウス過程(GP)に基づくニューラル演算子を提案する。
ニューラル演算子を用いて学習した潜在空間でGPカーネルを定式化するニューラル演算子埋め込みカーネル'を提案する。
本研究は, 不確実性評価におけるロバスト性を維持しつつ, 複雑なPDEを解く上で, この枠組みの有効性を強調した。
論文 参考訳(メタデータ) (2024-09-17T08:12:38Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Learning in latent spaces improves the predictive accuracy of deep
neural operators [0.0]
L-DeepONetは標準のDeepONetの拡張であり、高次元PDE入力の潜在表現と適切なオートエンコーダで識別される出力関数を利用する。
L-DeepONetは時間依存PDEの精度と計算効率の両面で標準手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-15T17:13:09Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Inter-domain Deep Gaussian Processes [45.28237107466283]
ドメイン間および深いガウス過程(DGP)の利点を組み合わせたドメイン間浅層GPの拡張を提案する。
提案手法は,DGPのドメイン間特徴量を用いて,既存の近似推論手法を用いて,シンプルでスケーラブルな近似推論を実現する方法を示す。
論文 参考訳(メタデータ) (2020-11-01T04:03:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。