論文の概要: Latent Mamba Operator for Partial Differential Equations
- arxiv url: http://arxiv.org/abs/2505.19105v1
- Date: Sun, 25 May 2025 11:51:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.909038
- Title: Latent Mamba Operator for Partial Differential Equations
- Title(参考訳): 部分微分方程式に対する潜在マンバ演算子
- Authors: Karn Tiwari, Niladri Dutta, N M Anoop Krishnan, Prathosh A P,
- Abstract要約: 本稿では,Latent Mamba Operator (LaMO)を導入し,Latent空間における状態空間モデルの効率と,ニューラルネットワークにおけるカーネル積分定式化の表現力を統合する。
LaMOは、ソリューション演算子近似における既存のベースラインよりも32.3%改善され、一貫したSOTA(State-of-the-art)性能を実現している。
- 参考スコア(独自算出の注目度): 8.410938527671341
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural operators have emerged as powerful data-driven frameworks for solving Partial Differential Equations (PDEs), offering significant speedups over numerical methods. However, existing neural operators struggle with scalability in high-dimensional spaces, incur high computational costs, and face challenges in capturing continuous and long-range dependencies in PDE dynamics. To address these limitations, we introduce the Latent Mamba Operator (LaMO), which integrates the efficiency of state-space models (SSMs) in latent space with the expressive power of kernel integral formulations in neural operators. We also establish a theoretical connection between state-space models (SSMs) and the kernel integral of neural operators. Extensive experiments across diverse PDE benchmarks on regular grids, structured meshes, and point clouds covering solid and fluid physics datasets, LaMOs achieve consistent state-of-the-art (SOTA) performance, with a 32.3\% improvement over existing baselines in solution operator approximation, highlighting its efficacy in modeling complex PDE solutions.
- Abstract(参考訳): ニューラルネットワークは、部分微分方程式(PDE)を解くための強力なデータ駆動フレームワークとして登場し、数値的手法よりも大幅に高速化されている。
しかし、既存のニューラル演算子は高次元空間のスケーラビリティ、計算コストの増大、PDE力学における連続的および長距離的依存関係の獲得に苦慮している。
これらの制約に対処するために,潜時空間における状態空間モデル(SSM)の効率と,ニューラル演算子におけるカーネル積分定式化の表現力を統合するラテントマンバ演算子(LaMO)を導入する。
また、状態空間モデル(SSM)とニューラル演算子のカーネル積分との理論的接続を確立する。
通常のグリッド、構造化メッシュ、および固体および流体物理学データセットをカバーする点雲に関する様々なPDEベンチマークに対する広範な実験では、LaMOは、複雑なPDEソリューションのモデリングにおける既存のベースラインよりも32.3%改善され、一貫したSOTA(State-of-the-art)パフォーマンスを実現している。
関連論文リスト
- Merging Memory and Space: A Spatiotemporal State Space Neural Operator [2.0104149319910767]
ST-SSMは時間依存偏微分方程式の解演算子を学習するためのコンパクトなアーキテクチャである。
s とニューラル作用素の間に理論的な関係が確立され、結果として生じるアーキテクチャのクラスに対して統一的な定理が証明される。
本結果は,PDEモデリングにおける次元分解演算子学習の利点を浮き彫りにしたものである。
論文 参考訳(メタデータ) (2025-07-31T11:09:15Z) - RONOM: Reduced-Order Neural Operator Modeling [1.2016264781280588]
この研究は、ROMと演算子学習から概念をブリッジするRONOM(reduced-order neural operator modeling)フレームワークを導入している。
ROMに類似した離散化誤差を確立し,RONOMの離散化収束と離散化堅牢性について考察する。
論文 参考訳(メタデータ) (2025-07-17T06:14:19Z) - Enabling Local Neural Operators to perform Equation-Free System-Level Analysis [0.0]
ニューラルネットワーク(NO)は、物理法則を含む計算のための強力なフレームワークを提供する。
我々は、Krylov部分空間における(局所的な)NOと高度な反復的数値法を統合するフレームワークを提案し、実装する。
3つの非線形PDEベンチマークを通して、我々のフレームワークを説明します。
論文 参考訳(メタデータ) (2025-05-05T01:17:18Z) - Efficient Transformed Gaussian Process State-Space Models for Non-Stationary High-Dimensional Dynamical Systems [49.819436680336786]
本研究では,高次元非定常力学系のスケーラブルかつ柔軟なモデリングのための効率的な変換ガウス過程状態空間モデル(ETGPSSM)を提案する。
具体的には、ETGPSSMは、単一の共有GPと入力依存の正規化フローを統合し、複雑な非定常遷移ダイナミクスを捉える前に、表現的な暗黙のプロセスを生成する。
ETGPSSMは、計算効率と精度の観点から、既存のGPSSMとニューラルネットワークベースのSSMより優れています。
論文 参考訳(メタデータ) (2025-03-24T03:19:45Z) - Advancing Generalization in PINNs through Latent-Space Representations [71.86401914779019]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)によって支配される力学系のモデリングにおいて大きな進歩を遂げた。
本稿では,多種多様なPDE構成を効果的に一般化する物理インフォームドニューラルPDE解法PIDOを提案する。
PIDOは1次元合成方程式と2次元ナビエ・ストークス方程式を含む様々なベンチマークで検証する。
論文 参考訳(メタデータ) (2024-11-28T13:16:20Z) - Mamba Neural Operator: Who Wins? Transformers vs. State-Space Models for PDEs [14.14673083512826]
偏微分方程式 (Partial differential equation, PDE) は複雑な物理系をモデル化するために広く用いられている。
トランスフォーマーは複雑な依存関係をキャプチャできるため、PDEにとって好まれるアーキテクチャとして登場した。
我々は,PDEを解くために,ニューラル演算子に基づく技術を強化する新しいフレームワークであるMamba Neural Operator (MNO)を紹介する。
論文 参考訳(メタデータ) (2024-10-03T00:32:31Z) - Pretraining Codomain Attention Neural Operators for Solving Multiphysics PDEs [85.40198664108624]
PDEを用いた多物理問題の解法として,コドメイン注意ニューラル演算子(CoDA-NO)を提案する。
CoDA-NOはコドメインやチャネル空間に沿った機能をトークン化し、複数のPDEシステムの自己教師付き学習や事前訓練を可能にする。
CoDA-NOは、データ制限のある複雑な下流タスクにおいて、既存のメソッドを36%以上上回ります。
論文 参考訳(メタデータ) (2024-03-19T08:56:20Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - LordNet: An Efficient Neural Network for Learning to Solve Parametric Partial Differential Equations without Simulated Data [47.49194807524502]
エンタングルメントをモデル化するためのチューナブルで効率的なニューラルネットワークであるLordNetを提案する。
ポアソン方程式と(2Dおよび3D)ナビエ・ストークス方程式を解く実験は、長距離の絡み合いがロードネットによってうまくモデル化できることを示した。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Neural Operator with Regularity Structure for Modeling Dynamics Driven
by SPDEs [70.51212431290611]
偏微分方程式 (SPDE) は、大気科学や物理学を含む多くの分野において、力学をモデル化するための重要なツールである。
本研究では,SPDEによって駆動されるダイナミクスをモデル化するための特徴ベクトルを組み込んだニューラル演算子(NORS)を提案する。
動的Phi41モデルと2d Navier-Stokes方程式を含む様々なSPDE実験を行った。
論文 参考訳(メタデータ) (2022-04-13T08:53:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。