論文の概要: Kernel-based Stochastic Approximation Framework for Nonlinear Operator Learning
- arxiv url: http://arxiv.org/abs/2509.11070v1
- Date: Sun, 14 Sep 2025 03:33:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.897157
- Title: Kernel-based Stochastic Approximation Framework for Nonlinear Operator Learning
- Title(参考訳): 非線形演算子学習のためのカーネルに基づく確率近似フレームワーク
- Authors: Jia-Qi Yang, Lei Shi,
- Abstract要約: 一般メルサー作用素値カーネルを用いた無限次元空間間の近似フレームワークを開発する。
この枠組みでは, 非線形演算子学習が次元性の呪いを克服できることを実証し, 次元自由収束率を確立する。
このフレームワークは、積分演算子からエンコーダ-デコーダ表現に基づくアーキテクチャまで、幅広い演算子学習タスクに対応している。
- 参考スコア(独自算出の注目度): 7.820614736576814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop a stochastic approximation framework for learning nonlinear operators between infinite-dimensional spaces utilizing general Mercer operator-valued kernels. Our framework encompasses two key classes: (i) compact kernels, which admit discrete spectral decompositions, and (ii) diagonal kernels of the form $K(x,x')=k(x,x')T$, where $k$ is a scalar-valued kernel and $T$ is a positive operator on the output space. This broad setting induces expressive vector-valued reproducing kernel Hilbert spaces (RKHSs) that generalize the classical $K=kI$ paradigm, thereby enabling rich structural modeling with rigorous theoretical guarantees. To address target operators lying outside the RKHS, we introduce vector-valued interpolation spaces to precisely quantify misspecification error. Within this framework, we establish dimension-free polynomial convergence rates, demonstrating that nonlinear operator learning can overcome the curse of dimensionality. The use of general operator-valued kernels further allows us to derive rates for intrinsically nonlinear operator learning, going beyond the linear-type behavior inherent in diagonal constructions of $K=kI$. Importantly, this framework accommodates a wide range of operator learning tasks, ranging from integral operators such as Fredholm operators to architectures based on encoder-decoder representations. Moreover, we validate its effectiveness through numerical experiments on the two-dimensional Navier-Stokes equations.
- Abstract(参考訳): 一般メルサー演算子評価カーネルを用いた無限次元空間間の非線形演算子学習のための確率近似フレームワークを開発した。
私たちのフレームワークには2つの重要なクラスがあります。
(i)離散スペクトル分解を許容するコンパクトカーネル、及び
(ii) $K(x,x')=k(x,x')T$, ここで$k$はスカラー値のカーネルであり、$T$は出力空間上の正の作用素である。
この広い設定は、古典的な$K=kI$パラダイムを一般化する表現的ベクトル値再生カーネルヒルベルト空間(RKHS)を誘導し、厳密な理論的保証を伴うリッチな構造モデリングを可能にする。
RKHSの外にあるターゲット演算子に対処するため、ベクトル値補間空間を導入し、誤特定誤差を正確に定量化する。
この枠組みでは, 非線形演算子学習が次元性の呪いを克服できることを実証し, 次元自由多項式収束率を確立する。
さらに、一般作用素値カーネルを用いることで、K=kI$の対角構造に固有の線形型挙動を超えて、本質的に非線形な作用素学習の速度を導出することができる。
このフレームワークは、Fredholm演算子のような積分演算子から、エンコーダ-デコーダ表現に基づくアーキテクチャまで、幅広い演算子学習タスクに対応している。
さらに,2次元Navier-Stokes方程式の数値実験により,その有効性を検証する。
関連論文リスト
- Linear quadratic control of nonlinear systems with Koopman operator learning and the Nyström method [16.0198373552099]
計算量を大幅に削減するために,ランダムな部分空間をどのように利用できるかを示す。
我々の主な技術的貢献は、Nystr"om近似の効果に関する理論的保証を導出することである。
論文 参考訳(メタデータ) (2024-03-05T09:28:40Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Deep Learning with Kernels through RKHM and the Perron-Frobenius
Operator [14.877070496733966]
再生カーネル Hilbert $C*$-module (RKHM) は、複製カーネル Hilbert 空間 (RKHS) を$C*$-algebra を用いて一般化したものである。
我々は、この設定で有界な新しいラデマッハ一般化を導出し、ペロン・フロベニウス作用素による良性過剰適合の理論的解釈を提供する。
論文 参考訳(メタデータ) (2023-05-23T01:38:41Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Estimating Koopman operators for nonlinear dynamical systems: a
nonparametric approach [77.77696851397539]
Koopman演算子は非線形系の線形記述を可能にする数学的ツールである。
本稿では,その核となる部分を同一フレームワークのデュアルバージョンとして捉え,それらをカーネルフレームワークに組み込む。
カーネルメソッドとKoopman演算子との強力なリンクを確立し、Kernel関数を通じて後者を推定する。
論文 参考訳(メタデータ) (2021-03-25T11:08:26Z) - High-Dimensional Gaussian Process Inference with Derivatives [90.8033626920884]
低データ状態の$ND$では、Gram行列は$mathcalO(N2D + (N2)3)$に推論のコストを下げる方法で分解できることを示す。
最適化や予測勾配を持つハミルトニアンモンテカルロなど、機械学習に関連する様々なタスクでこの可能性を実証する。
論文 参考訳(メタデータ) (2021-02-15T13:24:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。