論文の概要: Can neural operators always be continuously discretized?
- arxiv url: http://arxiv.org/abs/2412.03393v1
- Date: Wed, 04 Dec 2024 15:22:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:07:25.540919
- Title: Can neural operators always be continuously discretized?
- Title(参考訳): ニューラル作用素は常に連続的に離散化できるのか?
- Authors: Takashi Furuya, Michael Puthawala, Maarten V. de Hoop, Matti Lassas,
- Abstract要約: 我々は、スキップ接続を含む一般的なフレームワークにおいて、ヒルベルト空間間のニューラル作用素の離散化の問題を考える。
ビリプシッツニューラル作用素は、常に強い単調ニューラル作用素の交互組成の形で書けることを示す。
また、このタイプのニューラル作用素は有限ランク残留ニューラル作用素の合成によって近似できることを示す。
- 参考スコア(独自算出の注目度): 7.37972671531752
- License:
- Abstract: We consider the problem of discretization of neural operators between Hilbert spaces in a general framework including skip connections. We focus on bijective neural operators through the lens of diffeomorphisms in infinite dimensions. Framed using category theory, we give a no-go theorem that shows that diffeomorphisms between Hilbert spaces or Hilbert manifolds may not admit any continuous approximations by diffeomorphisms on finite-dimensional spaces, even if the approximations are nonlinear. The natural way out is the introduction of strongly monotone diffeomorphisms and layerwise strongly monotone neural operators which have continuous approximations by strongly monotone diffeomorphisms on finite-dimensional spaces. For these, one can guarantee discretization invariance, while ensuring that finite-dimensional approximations converge not only as sequences of functions, but that their representations converge in a suitable sense as well. Finally, we show that bilipschitz neural operators may always be written in the form of an alternating composition of strongly monotone neural operators, plus a simple isometry. Thus we realize a rigorous platform for discretization of a generalization of a neural operator. We also show that neural operators of this type may be approximated through the composition of finite-rank residual neural operators, where each block is strongly monotone, and may be inverted locally via iteration. We conclude by providing a quantitative approximation result for the discretization of general bilipschitz neural operators.
- Abstract(参考訳): 我々は、スキップ接続を含む一般的なフレームワークにおいて、ヒルベルト空間間のニューラル作用素の離散化の問題を考える。
我々は、無限次元の微分同相のレンズを通して、単射ニューラル作用素に焦点をあてる。
圏論を用いて、ヒルベルト空間とヒルベルト多様体の間の微分同相写像は、たとえ近似が非線形であっても有限次元空間上の微分同相写像による連続近似を認めないことを示すノーゴー定理を与える。
自然な方法は、有限次元空間上の強単トン微分同相写像による連続近似を持つ強単トン微分同相写像と層的に強単トンニューラル作用素の導入である。
これらに対して、有限次元近似が関数の列として収束するだけでなく、それらの表現が適切な意味で収束することを保証しながら、離散化不変性を保証することができる。
最後に、ビリプシッツ神経作用素は、常に強い単調神経作用素の交互合成の形で記述され、単純な等尺性を持つことを示す。
そこで我々は,ニューラル演算子の一般化の離散化のための厳密なプラットフォームを実現する。
また、このタイプのニューラル作用素は、各ブロックが強い単調であり、反復によって局所的に逆転する有限ランク残留ニューラル作用素の合成によって近似されることも示している。
一般のビリプシッツニューラル作用素の離散化に対する定量的な近似結果を提供することで結論付ける。
関連論文リスト
- Interpolating between R\'enyi entanglement entropies for arbitrary
bipartitions via operator geometric means [0.0]
正規化 R'enyi の発散による部分加法的および部分乗法的モノトンの新規構築を導入する。
重み付き作用素幾何手段を用いて,非自明な方法で組み合わせることができることを示す。
さらに、超加法的かつ超乗法的な新しい汎函数の下位境界を求める。
論文 参考訳(メタデータ) (2022-08-30T17:56:53Z) - Neural and spectral operator surrogates: unified construction and
expression rate bounds [0.46040036610482665]
無限次元関数空間間の写像の深い代理に対する近似速度について検討する。
関数空間からの演算子 in-および出力は、安定なアフィン表現系によってパラメータ化される。
論文 参考訳(メタデータ) (2022-07-11T15:35:14Z) - Algebraic function based Banach space valued ordinary and fractional
neural network approximations [0.0]
近似はポイントワイドで一様ノルムです
関連するバナッハ空間値フィードフォワードニューラルネットワークは、1つの隠蔽層を持つ。
論文 参考訳(メタデータ) (2022-02-11T20:08:52Z) - Convolutional Filtering and Neural Networks with Non Commutative
Algebras [153.20329791008095]
本研究では,非可換畳み込みニューラルネットワークの一般化について検討する。
非可換畳み込み構造は作用素空間上の変形に対して安定であることを示す。
論文 参考訳(メタデータ) (2021-08-23T04:22:58Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - The strong converse exponent of discriminating infinite-dimensional
quantum states [0.0]
有限次元密度作用素のサンドイッチ付き R'enyi 分岐は、強逆領域におけるそれらの微分可能性の定量化を示す。
また、サンドイッチ付きR'enyi発散の研究や、強い逆指数の関連問題も開始する。
論文 参考訳(メタデータ) (2021-07-16T17:57:28Z) - Coupling-based Invertible Neural Networks Are Universal Diffeomorphism
Approximators [72.62940905965267]
結合フロー(CF-INN)に基づく可逆ニューラルネットワークは、画像合成や表現学習など、さまざまな機械学習応用を有する。
CF-INNは可逆関数に対する普遍近似器か?
我々は、ある微分同相類に対する普遍性の同値性を示す一般的な定理を証明する。
論文 参考訳(メタデータ) (2020-06-20T02:07:37Z) - Models of zero-range interaction for the bosonic trimer at unitarity [91.3755431537592]
ゼロ範囲の2体相互作用によって相互に結合された同一ボソンからなる3体系に対する量子ハミルトニアンの構成について述べる。
プレゼンテーションの大部分では、無限の散乱長が考慮される。
論文 参考訳(メタデータ) (2020-06-03T17:54:43Z) - Quantum Geometric Confinement and Dynamical Transmission in Grushin
Cylinder [68.8204255655161]
無限円筒上で最小に定義されたラプラス・ベルトラミ作用素の自己随伴実現を分類する。
我々は、最近文献で確認された、最も精細で最も透過性の高い拡張を検索する。
論文 参考訳(メタデータ) (2020-03-16T11:37:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。