論文の概要: On finite-dimensional encoding/decoding theorems for neural operators
- arxiv url: http://arxiv.org/abs/2602.00068v1
- Date: Tue, 20 Jan 2026 15:15:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 02:03:42.311357
- Title: On finite-dimensional encoding/decoding theorems for neural operators
- Title(参考訳): ニューラル作用素に対する有限次元符号化/復号定理について
- Authors: Vinícius Luz Oliveira, Vladimir G. Pestov,
- Abstract要約: 函数空間 $E$ と $F$ の間の連続写像 $f$ がコンパクト空間上の一様収束の位相において近似されることを示す。
この結果は、すべてのノルム空間だけでなく、任意の局所凸空間に対しても、$E,F$の仮定は必要としない。
この解析は、微分方程式の理論において非ノルムな局所凸函数空間が一般的であるため、既に有用である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, versions of neural networks with infinite-dimensional affine operators inside the computational units (``neural operator'' networks) have been applied to learn solutions to differential equations. To enable practical computations, one employs finite-dimensional encoding/decoding theorems of the following kind: every continuous mapping $f$ between function spaces $E$ and $F$ is approximated in the topology of uniform convergence on compacta by continuous mappings factoring through two finite dimensional Banach spaces. Such a result is known (Kovachki et al., 2023) for $E,F$ being Banach spaces having the approximation property. We point out that the result needs no assumptions on $E,F$ whatsoever and remains true not only for all normed spaces, but for arbitrary locally convex spaces as well. At the same time, an analogous result for $C^k$-smooth mappings and the $C^k$ compact open topology, $k\geq 1$, holds if and only if the space $E$ has the approximation property. This analysis may be useful already because non-normable locally convex function spaces are common in the theory of differential equations, the main field of applications for the emerging theory.
- Abstract(参考訳): 近年,計算ユニット内の無限次元アフィン演算子を用いたニューラルネットワークのバージョンが,微分方程式の解の学習に応用されている。
すべての連続写像 $f$ が函数空間 $E$ と $F$ の間の任意の連続写像 $f$ は、コンパクト空間上の一様収束の位相において、2つの有限次元バナッハ空間を分解する連続写像によって近似される。
そのような結果は(Kovachki et al , 2023)、近似性を持つバナッハ空間として$E,F$で知られている。
この結果は、すべてのノルム空間だけでなく、任意の局所凸空間に対しても、$E,F$の仮定は必要としない。
同時に、$C^k$-smooth mappings と $C^k$ コンパクトな開位相 $k\geq 1$ に対する類似の結果は、空間 $E$ が近似特性を持つ場合に限り成り立つ。
この解析は、非ノルムな局所凸函数空間が微分方程式論において一般的であるため、既に有用であるかもしれない。
関連論文リスト
- Expressive Power of Deep Networks on Manifolds: Simultaneous Approximation [2.815765641180636]
境界重みを持つ定数深度$mathrmReLUk-1$ネットワークは、ソボレフ空間内の任意の関数を近似することができることを示す。
また、必要なパラメータ数が対数係数に一致することを示すことで、我々の構成がほぼ最適であることを示す。
論文 参考訳(メタデータ) (2025-09-11T11:28:20Z) - Guessing Efficiently for Constrained Subspace Approximation [49.83981776254246]
制約付き部分空間近似のための一般的なフレームワークを導入する。
分割制約付き部分空間近似のための新しいアルゴリズムを$k$-meansクラスタリングに適用し、非負行列分解を投影する。
論文 参考訳(メタデータ) (2025-04-29T15:56:48Z) - Neural networks in non-metric spaces [0.0]
我々は、入力空間と出力空間の広大なクラスに対して、いくつかの普遍近似定理を証明した。
ニューラルネットワークアーキテクチャは、任意の精度で「有限次元」サブスペースに投影可能であることを示す。
結果として得られるニューラルネットワークアーキテクチャは、関数データに基づく予測タスクに適用できる。
論文 参考訳(メタデータ) (2024-06-13T16:44:58Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - An Approximation Theory for Metric Space-Valued Functions With A View
Towards Deep Learning [25.25903127886586]
任意のポーランド計量空間 $mathcalX$ と $mathcalY$ の間の連続写像の普遍函数近似器を構築する。
特に、必要なディラック測度数は $mathcalX$ と $mathcalY$ の構造によって決定されることを示す。
論文 参考訳(メタデータ) (2023-04-24T16:18:22Z) - Finding Global Minima via Kernel Approximations [90.42048080064849]
関数評価のみに基づく滑らかな関数のグローバル最小化を考える。
本稿では,近似関数を共同でモデル化し,大域的最小値を求める手法を検討する。
論文 参考訳(メタデータ) (2020-12-22T12:59:30Z) - A deep network construction that adapts to intrinsic dimensionality
beyond the domain [79.23797234241471]
本稿では,ReLUを活性化したディープネットワークを用いて,2層合成の近似を$f(x) = g(phi(x))$で検討する。
例えば、低次元埋め込み部分多様体への射影と、低次元集合の集合への距離である。
論文 参考訳(メタデータ) (2020-08-06T09:50:29Z) - Linear Time Sinkhorn Divergences using Positive Features [51.50788603386766]
エントロピー正則化で最適な輸送を解くには、ベクトルに繰り返し適用される$ntimes n$ kernel matrixを計算する必要がある。
代わりに、$c(x,y)=-logdotpvarphi(x)varphi(y)$ ここで$varphi$は、地上空間から正のorthant $RRr_+$への写像であり、$rll n$である。
論文 参考訳(メタデータ) (2020-06-12T10:21:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。