論文の概要: Gauge-Equivariant Intrinsic Neural Operators for Geometry-Consistent Learning of Elliptic PDE Maps
- arxiv url: http://arxiv.org/abs/2603.14734v1
- Date: Mon, 16 Mar 2026 02:10:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.998135
- Title: Gauge-Equivariant Intrinsic Neural Operators for Geometry-Consistent Learning of Elliptic PDE Maps
- Title(参考訳): 幾何学-楕円型PDEマップの連続学習のためのゲージ同変固有ニューラル演算子
- Authors: Pengcheng Cheng,
- Abstract要約: 幾何偏微分方程式(PDE)に対するゲージ同変固有ニューラル演算子(GINO)を提案する。
GINOは、幾何依存スペクトルに作用する固有スペクトル乗法を通して楕円解をパラメータ化し、ゲージ-等変非線形性と結合する。
我々は, GINO が低演算子近似誤差, 機械精度ゲージの等値, 構造的計量摂動に対する等剛性, 制約/延長条件下での小さい可換誤差による強いクロスレゾリューション一般化, 正規化された完全/コンパクトな分解タスクにおける構造保存性能を実現することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning solution operators of partial differential equations (PDEs) from data has emerged as a promising route to fast surrogate models in multi-query scientific workflows. However, for geometric PDEs whose inputs and outputs transform under changes of local frame (gauge), many existing operator-learning architectures remain representation-dependent, brittle under metric perturbations, and sensitive to discretization changes. We propose Gauge-Equivariant Intrinsic Neural Operators (GINO), a class of neural operators that parameterize elliptic solution maps primarily through intrinsic spectral multipliers acting on geometry-dependent spectra, coupled with gauge-equivariant nonlinearities. This design decouples geometry from learnable functional dependence and enforces consistency under frame transformations. We validate GINO on controlled problems on the flat torus ($\mathbb{T}^2$), where ground-truth resolvent operators and regularized Helmholtz--Hodge decompositions admit closed-form Fourier representations, enabling theory-aligned diagnostics. Across experiments E1--E6, GINO achieves low operator-approximation error, near machine-precision gauge equivariance, robustness to structured metric perturbations, strong cross-resolution generalization with small commutation error under restriction/prolongation, and structure-preserving performance on a regularized exact/coexact decomposition task. Ablations further link the smoothness of the learned spectral multiplier to stability under geometric perturbations. These results suggest that enforcing intrinsic structure and gauge equivariance yields operator surrogates that are more geometry-consistent and discretization-robust for elliptic PDEs on form-valued fields.
- Abstract(参考訳): データから偏微分方程式(PDE)を学習する解演算子は、マルチクエリの科学ワークフローにおいて高速なサロゲートモデルへの有望な経路として現れてきた。
しかし、入力と出力が局所フレーム(ゲージ)の変化の下で変換される幾何学的PDEでは、既存の演算子学習アーキテクチャの多くは表現依存であり、計量摂動下では不安定であり、離散化に敏感である。
幾何学依存スペクトルに作用する固有スペクトル乗算器とゲージ同変非線形性を組み合わせた楕円型解写像をパラメータ化するニューラルネットワークのクラスであるGauge-Equivariant Intrinsic Neural Operators (GINO)を提案する。
この設計は、幾何学を学習可能な関数依存から切り離し、フレーム変換の下で一貫性を強制する。
グラウンドトルース分解作用素と正規化ヘルムホルツ-ホッジ分解が閉形式フーリエ表現を許容し、理論整合診断を可能にするような平面トーラス(\mathbb{T}^2$)上の制御問題に対してGINOを検証する。
実験E1--E6において、GINOは低演算子近似誤差、近接機械精度ゲージの等価性、構造化されたメートル法摂動に対する頑健性、制限/伸長による小さな通勤誤差による強いクロスレゾリューション一般化、正規化された正確な/コンパクトな分解タスクにおける構造保存性能を達成する。
アブレーションは、幾何学的摂動下での学習されたスペクトル乗算器の滑らかさと安定性を更に結びつける。
これらの結果は、固有構造とゲージ平衡の強制は、より幾何整合で楕円型PDEに対する離散化ロバストである作用素の代理を、形式値場上で有することを示す。
関連論文リスト
- Physics-Informed Chebyshev Polynomial Neural Operator for Parametric Partial Differential Equations [17.758049557300826]
物理インフォームドチェビシェフ多言語ニューラル演算子(CPNO)について紹介する。
CPNOは不安定な単項展開を数値的に安定なチェビシェフスペクトルベースで置き換える。
ベンチマークパラメタライズドPDEの実験では、CPNOはより優れた精度、より高速な収束、ハイパーパラメータの堅牢性の向上を実現している。
論文 参考訳(メタデータ) (2026-02-02T07:19:56Z) - Discrete Solution Operator Learning for Geometry-Dependent PDEs [5.010936781094744]
本稿では,連続関数空間演算子ではなく個別解法を学習するパラダイムであるDiSOLを紹介する。
DiSOLは、解法を古典的な離散化を反映する学習可能な段階に分解する。
これらの結果は、幾何学的に支配された問題における演算子表現の必要性を浮き彫りにする。
論文 参考訳(メタデータ) (2026-01-14T04:34:49Z) - Deep Eigenspace Network and Its Application to Parametric Non-selfadjoint Eigenvalue Problems [0.12744523252873352]
パラメトリック非自己随伴固有値問題を効率的に解くための演算子学習について検討する。
個々の固有関数ではなく、安定な不変固有部分空間写像を学習するハイブリッドフレームワークを導入する。
論文 参考訳(メタデータ) (2025-12-23T05:20:22Z) - Geometric Laplace Neural Operator [12.869633759181417]
本稿では指数基底関数に富んだ極-極分解に基づく一般化された演算子学習フレームワークを提案する。
本稿では,ラプラススペクトル表現をラプラス・ベルトラミ作用素の固有基底に埋め込んだGLNO(Geometric Laplace Neural Operator)を紹介する。
さらに,実際にGLNOを実現するグリッド不変ネットワークアーキテクチャ(GLNONet)を設計する。
論文 参考訳(メタデータ) (2025-12-18T11:07:41Z) - DimINO: Dimension-Informed Neural Operator Learning [41.37905663176428]
Diminoは次元分析にインスパイアされたフレームワークである。
既存のニューラル演算子アーキテクチャにシームレスに統合することができる。
PDEデータセットで最大76.3%のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Last-Iterate Convergence of Adaptive Riemannian Gradient Descent for Equilibrium Computation [52.73824786627612]
本稿では,テクスト幾何学的強単調ゲームに対する新たな収束結果を確立する。
我々のキーとなる結果は、RGDがテクスト幾何学的手法で最終定位線形収束を実現することを示しています。
全体として、ユークリッド設定を超えるゲームに対して、幾何学的に非依存な最終点収束解析を初めて提示する。
論文 参考訳(メタデータ) (2023-06-29T01:20:44Z) - Learning Discretized Neural Networks under Ricci Flow [48.47315844022283]
低精度重みとアクティベーションからなる離散ニューラルネットワーク(DNN)について検討する。
DNNは、訓練中に微分不可能な離散関数のために無限あるいはゼロの勾配に悩まされる。
論文 参考訳(メタデータ) (2023-02-07T10:51:53Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。