論文の概要: Redefining Neural Operators in $d+1$ Dimensions
- arxiv url: http://arxiv.org/abs/2505.11766v1
- Date: Sat, 17 May 2025 00:15:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.834641
- Title: Redefining Neural Operators in $d+1$ Dimensions
- Title(参考訳): $d+1$次元におけるニューラル演算子の再定義
- Authors: Haoze Song, Zhihao Li, Xiaobo Zhang, Zecheng Gan, Zhilu Lai, Wei Wang,
- Abstract要約: そこで我々は,SKNO (Schr) を設計し,$d+1$次元の進化と整合する手法を提案する。
実験では、d+1$ 次元発展線形ブロックは他のものよりもはるかに優れている。
- 参考スコア(独自算出の注目度): 12.258333578694629
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Operators have emerged as powerful tools for learning mappings between function spaces. Among them, the kernel integral operator has been widely validated on universally approximating various operators. Although recent advancements following this definition have developed effective modules to better approximate the kernel function defined on the original domain (with $d$ dimensions, $d=1, 2, 3...$), the unclarified evolving mechanism in the embedding spaces blocks our view to design neural operators that can fully capture the target system evolution. Drawing on recent breakthroughs in quantum simulation of partial differential equations (PDEs), we elucidate the linear evolution process in neural operators. Based on that, we redefine neural operators on a new $d+1$ dimensional domain. Within this framework, we implement our proposed Schr\"odingerised Kernel Neural Operator (SKNO) aligning better with the $d+1$ dimensional evolution. In experiments, our $d+1$ dimensional evolving linear block performs far better than others. Also, we test SKNO's SOTA performance on various benchmark tests and also the zero-shot super-resolution task. In addition, we analyse the impact of different lifting and recovering operators on the prediction within the redefined NO framework, reflecting the alignment between our model and the underlying $d+1$ dimensional evolution.
- Abstract(参考訳): ニューラル演算子は、関数空間間のマッピングを学習するための強力なツールとして登場した。
このうち、カーネル積分作用素は、様々な演算子を普遍的に近似する上で広く検証されている。
この定義に続く最近の進歩は、元のドメインで定義されたカーネル関数($d$ dimensions, $d=1, 2, 3...$)をよりよく近似する効果的なモジュールを開発したが、埋め込み空間における未解明の進化メカニズムは、ターゲットシステムの進化を完全に捉えるニューラルネットワークの設計に対する私たちの見解を妨げている。
偏微分方程式(PDE)の量子シミュレーションにおける最近のブレークスルーに基づいて、ニューラル作用素における線形進化過程を解明する。
これに基づいて、新しい$d+1$次元領域でニューラル演算子を再定義する。
本フレームワークでは,SKNO(Schr\odingerized Kernel Neural Operator)を$d+1$の次元展開と整合的に実装する。
実験では、d+1$ 次元発展線形ブロックは他のものよりもはるかに優れている。
また,SKNOのSOTA性能を各種ベンチマークテストおよびゼロショット超解像タスクで検証する。
さらに、再定義されたNOフレームワーク内の予測に対する異なるリフトおよびリカバリ演算子の影響を解析し、モデルと基礎となる$d+1$次元の進化との整合性を反映する。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [60.58067866537143]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Multi-layer random features and the approximation power of neural networks [4.178980693837599]
再現カーネルヒルベルト空間はアーキテクチャによって近似できる関数のみを含むことを証明している。
NNGPの積分作用素の固有値が$k-n-frac23$よりも遅く、$k$が固有値の順序である場合、我々の定理はバロンの定理よりも簡潔なニューラルネットワーク近似を保証する。
論文 参考訳(メタデータ) (2024-04-26T14:57:56Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - MgNO: Efficient Parameterization of Linear Operators via Multigrid [4.096453902709292]
我々は、ニューロン間の線形演算子をパラメータ化するために多重格子構造を利用するMgNOを紹介する。
MgNOは、他のCNNベースのモデルと比べてトレーニングの容易さが優れている。
論文 参考訳(メタデータ) (2023-10-16T13:01:35Z) - Convolutional Neural Operators for robust and accurate learning of PDEs [11.562748612983956]
本稿では、入力や出力として関数を処理する畳み込みニューラルネットワークの新しい適応法を提案する。
結果として生じるアーキテクチャは、畳み込みニューラル演算子(CNO)と呼ばれる。
普遍性定理を証明し、CNOが PDE で生じる作用素を所望の精度で近似できることを示す。
論文 参考訳(メタデータ) (2023-02-02T15:54:45Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。