論文の概要: Vector-Valued Reproducing Kernel Banach Spaces for Neural Networks and Operators
- arxiv url: http://arxiv.org/abs/2509.26371v2
- Date: Wed, 01 Oct 2025 17:46:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-02 14:33:21.848819
- Title: Vector-Valued Reproducing Kernel Banach Spaces for Neural Networks and Operators
- Title(参考訳): ニューラルネットワークと演算子のためのベクトル値再生カーネルバナッハ空間
- Authors: Sven Dummer, Tjeerd Jan Heeringa, José A. Iglesias,
- Abstract要約: ベクトル値付きRKBS (vv-RKBS) の一般定義を開発する。
浅い$mathbbRd$-valued ニューラルネットワークは、特定の vv-RKBS の要素であり、すなわち、積分とニューラル vv-RKBS のインスタンスであることを示す。
また、ニューラル演算子の関数構造を探索するため、DeepONetとHypernetworkアーキテクチャを分析し、それらも積分的でニューラルなvv-RKBSに属することを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, there has been growing interest in characterizing the function spaces underlying neural networks. While shallow and deep scalar-valued neural networks have been linked to scalar-valued reproducing kernel Banach spaces (RKBS), $\mathbb{R}^d$-valued neural networks and neural operator models remain less understood in the RKBS setting. To address this gap, we develop a general definition of vector-valued RKBS (vv-RKBS), which inherently includes the associated reproducing kernel. Our construction extends existing definitions by avoiding restrictive assumptions such as symmetric kernel domains, finite-dimensional output spaces, reflexivity, or separability, while still recovering familiar properties of vector-valued reproducing kernel Hilbert spaces (vv-RKHS). We then show that shallow $\mathbb{R}^d$-valued neural networks are elements of a specific vv-RKBS, namely an instance of the integral and neural vv-RKBS. To also explore the functional structure of neural operators, we analyze the DeepONet and Hypernetwork architectures and demonstrate that they too belong to an integral and neural vv-RKBS. In all cases, we establish a Representer Theorem, showing that optimization over these function spaces recovers the corresponding neural architectures.
- Abstract(参考訳): 近年,ニューラルネットワークの基盤となる関数空間の特徴化への関心が高まっている。
浅いスカラー値と深いスカラー値のニューラルネットワークは、スカラー値の再現カーネルバナッハ空間(RKBS)にリンクされているが、$\mathbb{R}^d$値のニューラルネットワークとニューラル演算子モデルは、RKBS設定では理解されていない。
このギャップに対処するため,ベクトル値RKBS (vv-RKBS) の一般定義を開発する。
我々の構成は、ベクトル値再生カーネルヒルベルト空間(vv-RKHS)の使い慣れた性質を回復しながら、対称核領域、有限次元出力空間、反射率、分離性といった制限的な仮定を避けることで既存の定義を拡張している。
次に、浅い$\mathbb{R}^d$値のニューラルネットワークが特定の vv-RKBS の元であること、すなわち、積分およびニューラル vv-RKBS の例を示す。
また、ニューラル演算子の関数構造を探索するため、DeepONetとHypernetworkアーキテクチャを分析し、それらも積分的でニューラルなvv-RKBSに属することを示した。
いずれの場合も、これらの関数空間に対する最適化が対応するニューラルアーキテクチャを復元することを示すRepresenter Theoremを確立する。
関連論文リスト
- Sparse Autoencoder Neural Operators: Model Recovery in Function Spaces [75.45093712182624]
本研究では,スパースオートエンコーダ(SAE)を昇降空間や無限次元関数空間に拡張し,大規模ニューラル演算子(NO)の機械的解釈性を実現するフレームワークを提案する。
我々は、SAE、リフト-SAE、SAEニューラル演算子の推論とトレーニングのダイナミクスを比較した。
我々は、リフトと演算子モジュールが有益な帰納バイアスを導入し、より高速なリカバリを可能にし、スムーズな概念のリカバリを改善し、様々な解像度にわたる堅牢な推論を可能にした点を強調した。
論文 参考訳(メタデータ) (2025-09-03T21:57:03Z) - Global Convergence and Rich Feature Learning in $L$-Layer Infinite-Width Neural Networks under $μ$P Parametrization [66.03821840425539]
本稿では, テンソル勾配プログラム(SGD)フレームワークを用いた$L$層ニューラルネットワークのトレーニング力学について検討する。
SGDにより、これらのネットワークが初期値から大きく逸脱する線形独立な特徴を学習できることを示す。
このリッチな特徴空間は、関連するデータ情報をキャプチャし、トレーニングプロセスの収束点が世界最小であることを保証する。
論文 参考訳(メタデータ) (2025-03-12T17:33:13Z) - Deep Networks are Reproducing Kernel Chains [1.2016264781280588]
我々は、ディープニューラルネットワーク関数がニューラルcRKBS関数であることを証明し、逆に有限データセット上で定義されたニューラルcRKBS関数はディープニューラルネットワークに対応する。
このアプローチは経験的リスク最小化問題に対するスパースソリューションを提供し、N$はデータポイントの数である1層あたりのニューロンに限らない。
論文 参考訳(メタデータ) (2025-01-07T11:01:24Z) - Novel Kernel Models and Exact Representor Theory for Neural Networks Beyond the Over-Parameterized Regime [52.00917519626559]
本稿では、ニューラルネットワークの2つのモデルと、任意の幅、深さ、トポロジーのニューラルネットワークに適用可能なトレーニングについて述べる。
また、局所外在性神経核(LeNK)の観点から、非正規化勾配降下を伴う階層型ニューラルネットワークトレーニングのための正確な表現子理論を提示する。
この表現論は、ニューラルネットワークトレーニングにおける高次統計学の役割と、ニューラルネットワークのカーネルモデルにおけるカーネル進化の影響について洞察を与える。
論文 参考訳(メタデータ) (2024-05-24T06:30:36Z) - Neural reproducing kernel Banach spaces and representer theorems for deep networks [14.902126718612648]
ディープニューラルネットワークは、適切なカーネルバナッハ空間の再生を定義する。
応用において一般的に用いられる有限アーキテクチャを正当化する代表者定理を導出する。
論文 参考訳(メタデータ) (2024-03-13T17:51:02Z) - On the Eigenvalue Decay Rates of a Class of Neural-Network Related
Kernel Functions Defined on General Domains [10.360517127652185]
一般領域上で定義されたカーネル関数の大きなクラスの固有値減衰率(EDR)を決定するための戦略を提供する。
この種類のカーネル関数は含まれているが、異なる深さと様々なアクティベーション関数を持つニューラルネットワークに付随する神経タンジェントカーネルに限らない。
論文 参考訳(メタデータ) (2023-05-04T08:54:40Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。