論文の概要: Geometric Laplace Neural Operator
- arxiv url: http://arxiv.org/abs/2512.16409v1
- Date: Thu, 18 Dec 2025 11:07:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:32.024183
- Title: Geometric Laplace Neural Operator
- Title(参考訳): 幾何学的ラプラスニューラル演算子
- Authors: Hao Tang, Jiongyu Zhu, Zimeng Feng, Hao Li, Chao Li,
- Abstract要約: 本稿では指数基底関数に富んだ極-極分解に基づく一般化された演算子学習フレームワークを提案する。
本稿では,ラプラススペクトル表現をラプラス・ベルトラミ作用素の固有基底に埋め込んだGLNO(Geometric Laplace Neural Operator)を紹介する。
さらに,実際にGLNOを実現するグリッド不変ネットワークアーキテクチャ(GLNONet)を設計する。
- 参考スコア(独自算出の注目度): 12.869633759181417
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural operators have emerged as powerful tools for learning mappings between function spaces, enabling efficient solutions to partial differential equations across varying inputs and domains. Despite the success, existing methods often struggle with non-periodic excitations, transient responses, and signals defined on irregular or non-Euclidean geometries. To address this, we propose a generalized operator learning framework based on a pole-residue decomposition enriched with exponential basis functions, enabling expressive modeling of aperiodic and decaying dynamics. Building on this formulation, we introduce the Geometric Laplace Neural Operator (GLNO), which embeds the Laplace spectral representation into the eigen-basis of the Laplace-Beltrami operator, extending operator learning to arbitrary Riemannian manifolds without requiring periodicity or uniform grids. We further design a grid-invariant network architecture (GLNONet) that realizes GLNO in practice. Extensive experiments on PDEs/ODEs and real-world datasets demonstrate our robust performance over other state-of-the-art models.
- Abstract(参考訳): ニューラル作用素は関数空間間の写像を学習するための強力なツールとして登場し、様々な入力や領域にわたる偏微分方程式の効率的な解を可能にする。
成功にもかかわらず、既存の手法は非周期的な励起、過渡応答、不規則または非ユークリッド測地上で定義された信号としばしば苦労する。
そこで本研究では,指数基底関数に富んだ極-残留分解に基づく一般化された演算子学習フレームワークを提案する。
この定式化に基づいて、ラプラススペクトル表現をラプラス・ベルトラミ作用素の固有基底に埋め込んだ幾何ラプラスニューラルネットワーク(GLNO)を導入し、周期性や一様格子を必要としない任意のリーマン多様体への演算子学習を拡張した。
さらに,実際にGLNOを実現するグリッド不変ネットワークアーキテクチャ(GLNONet)を設計する。
PDE/ODEと実世界のデータセットに関する大規模な実験は、他の最先端モデルよりも堅牢なパフォーマンスを示している。
関連論文リスト
- Rates and architectures for learning geometrically non-trivial operators [29.400357098551495]
深層学習法は、非常に少数のトレーニングサンプルから高次元空間間の演算子を復元できることが証明されている。
一般のラドン変換や測地線変換を含む幾何学的積分作用素を、二重フィブレーション変換を含むように学習理論を拡張した。
この結果は、科学機械学習のための学習オペレーターに関する理論研究の急速な発展に寄与する。
論文 参考訳(メタデータ) (2025-12-10T07:15:07Z) - Fourier Neural Operators Explained: A Practical Perspective [75.12291469255794]
フーリエ・ニューラル・オペレータ(FNO)は、そのエレガントなスペクトル定式化により最も影響力があり広く採用されている。
本ガイドは,FNOを多種多様な科学・工学分野に効果的に適用するための,明確かつ信頼性の高い枠組みを確立することを目的とする。
論文 参考訳(メタデータ) (2025-12-01T08:56:21Z) - Diffeomorphic Latent Neural Operators for Data-Efficient Learning of Solutions to Partial Differential Equations [5.308435208832696]
計算された解演算子から偏微分方程式系(PDE)への近似は、科学や工学の様々な分野において必要である。
十分なデータのサンプル化を必要とせず,複数の領域にまたがって一般化可能なPDEソリューション演算子を学習するために,少数の真理解場に潜伏したニューラル演算子を訓練することができることを提案する。
論文 参考訳(メタデータ) (2024-11-27T03:16:00Z) - A Mathematical Analysis of Neural Operator Behaviors [0.0]
本稿では,ニューラルネットワークの動作を分析するための厳密な枠組みを提案する。
我々はそれらの安定性、収束性、クラスタリングダイナミクス、普遍性、一般化誤差に焦点を当てる。
我々は,ニューラル演算子に基づく手法の今後の設計のために,単一設定で明確かつ統一的なガイダンスを提供することを目指している。
論文 参考訳(メタデータ) (2024-10-28T19:38:53Z) - DimINO: Dimension-Informed Neural Operator Learning [41.37905663176428]
Diminoは次元分析にインスパイアされたフレームワークである。
既存のニューラル演算子アーキテクチャにシームレスに統合することができる。
PDEデータセットで最大76.3%のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Designing Universal Causal Deep Learning Models: The Case of Infinite-Dimensional Dynamical Systems from Stochastic Analysis [7.373617024876726]
解析におけるいくつかの非線形作用素は、現代のニューラル作用素によって利用されていない時間構造に依存している。
本稿では,無限次元線形距離空間を適切に扱うディープラーニングモデル設計フレームワークを提案する。
我々のフレームワークはコンパクトな集合や任意の有限時間地平線 H" や滑らかなトレースクラス作用素に対して均一に近似できることを示す。
論文 参考訳(メタデータ) (2022-10-24T14:43:03Z) - Semi-supervised Learning of Partial Differential Operators and Dynamical
Flows [68.77595310155365]
本稿では,超ネットワーク解法とフーリエニューラル演算子アーキテクチャを組み合わせた新しい手法を提案する。
本手法は, 1次元, 2次元, 3次元の非線形流体を含む様々な時間発展PDEを用いて実験を行った。
その結果、新しい手法は、監督点の時点における学習精度を向上し、任意の中間時間にその解を補間できることを示した。
論文 参考訳(メタデータ) (2022-07-28T19:59:14Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。