論文の概要: Featured Reproducing Kernel Banach Spaces for Learning and Neural Networks
- arxiv url: http://arxiv.org/abs/2602.07141v1
- Date: Fri, 06 Feb 2026 19:29:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.464924
- Title: Featured Reproducing Kernel Banach Spaces for Learning and Neural Networks
- Title(参考訳): ニューラルネットワークと学習のための特徴的再生カーネルバナッハ空間
- Authors: Isabel de la Higuera, Francisco Herrera, M. Victoria Velasco,
- Abstract要約: 再現されたカーネルヒルベルト空間は、カーネルベースの学習の基盤となるフレームワークを提供する。
固定構造ニューラルネットワークを含む現代の多くの学習モデルは、非4次ノルムを持つが、自然に非ヒルベルト幾何学を生んでいる。
そこで我々は,カーネルバナッハ空間の概念に基づいて,バナッハ空間における関数解析フレームワークを開発した。
- 参考スコア(独自算出の注目度): 3.483960518158563
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reproducing kernel Hilbert spaces provide a foundational framework for kernel-based learning, where regularization and interpolation problems admit finite-dimensional solutions through classical representer theorems. Many modern learning models, however -- including fixed-architecture neural networks equipped with non-quadratic norms -- naturally give rise to non-Hilbertian geometries that fall outside this setting. In Banach spaces, continuity of point-evaluation functionals alone is insufficient to guarantee feature representations or kernel-based learning formulations. In this work, we develop a functional-analytic framework for learning in Banach spaces based on the notion of featured reproducing kernel Banach spaces. We identify the precise structural conditions under which feature maps, kernel constructions, and representer-type results can be recovered beyond the Hilbertian regime. Within this framework, supervised learning is formulated as a minimal-norm interpolation or regularization problem, and existence results together with conditional representer theorems are established. We further extend the theory to vector-valued featured reproducing kernel Banach spaces and show that fixed-architecture neural networks naturally induce special instances of such spaces. This provides a unified function-space perspective on kernel methods and neural networks and clarifies when kernel-based learning principles extend beyond reproducing kernel Hilbert spaces.
- Abstract(参考訳): 再現されたカーネルヒルベルト空間は、古典的な表現定理による有限次元の解を正則化および補間問題として認める、カーネルベースの学習の基礎となる枠組みを提供する。
しかし、固定構造ニューラルネットワークを含む多くの近代的な学習モデルは、当然、この設定外にある非ヒルベルト的ジオメトリーを生じさせる。
バナッハ空間では、点評価関数の連続性だけでは特徴表現やカーネルに基づく学習の定式化を保証するには不十分である。
本研究では,カーネルバナッハ空間を特徴付ける再生成の概念に基づいて,バナッハ空間における関数解析フレームワークを開発する。
特徴写像、カーネル構造、表現型結果がヒルベルト政権を超えて復元できる正確な構造条件を同定する。
この枠組み内では、教師付き学習は最小ノルム補間あるいは正規化問題として定式化され、条件付き表現定理とともに存在結果が確立される。
さらに、ベクトル値を持つカーネルバナッハ空間に理論を拡張し、固定構造ニューラルネットワークがそのような空間の特別な例を自然に引き起こすことを示す。
これにより、カーネルメソッドとニューラルネットワークに関する統一的な関数空間の視点が提供され、カーネルベースの学習原則がカーネルヒルベルト空間の再生を超えて拡張された場合を明確にする。
関連論文リスト
- Notes on Kernel Methods in Machine Learning [0.8435614464136675]
我々は、正定値カーネルの理論を開発し、カーネルヒルベルト空間(RKHS)とヒルベルト・シュミット作用素を再現する。
また、カーネル密度推定、分布のカーネル埋め込み、最大平均離散性(MMD)も導入する。
この展示は、ガウス過程、カーネルベイズ推論、モダン機械学習に対する機能解析的アプローチなど、より高度なトピックの基盤として機能するよう設計されている。
論文 参考訳(メタデータ) (2025-11-18T13:29:07Z) - Geometric Neural Process Fields [58.77241763774756]
幾何学的ニューラル・プロセス・フィールド(Geometric Neural Process Fields, G-NPF)は、ニューラル・ラディアンス・フィールドの確率的フレームワークである。
これらの基盤の上に構築された階層型潜在変数モデルにより、G-NPFは複数の空間レベルにまたがる構造情報を統合できる。
3次元シーンと2次元画像と1次元信号レグレッションの新規ビュー合成実験により,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2025-02-04T14:17:18Z) - Novel Kernel Models and Exact Representor Theory for Neural Networks Beyond the Over-Parameterized Regime [52.00917519626559]
本稿では、ニューラルネットワークの2つのモデルと、任意の幅、深さ、トポロジーのニューラルネットワークに適用可能なトレーニングについて述べる。
また、局所外在性神経核(LeNK)の観点から、非正規化勾配降下を伴う階層型ニューラルネットワークトレーニングのための正確な表現子理論を提示する。
この表現論は、ニューラルネットワークトレーニングにおける高次統計学の役割と、ニューラルネットワークのカーネルモデルにおけるカーネル進化の影響について洞察を与える。
論文 参考訳(メタデータ) (2024-05-24T06:30:36Z) - Neural reproducing kernel Banach spaces and representer theorems for deep networks [14.902126718612648]
ディープニューラルネットワークは、適切なカーネルバナッハ空間の再生を定義する。
応用において一般的に用いられる有限アーキテクチャを正当化する代表者定理を導出する。
論文 参考訳(メタデータ) (2024-03-13T17:51:02Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - A Functional-Space Mean-Field Theory of Partially-Trained Three-Layer
Neural Networks [49.870593940818715]
本稿では,第1層がランダムで固定された3層NNモデルの無限幅限界について検討する。
我々の理論はモデルの異なるスケーリング選択に対応しており、結果としてMF制限の2つの条件が顕著な振舞いを示す。
論文 参考訳(メタデータ) (2022-10-28T17:26:27Z) - Understanding neural networks with reproducing kernel Banach spaces [20.28372804772848]
ニューラルネットワークに対応する関数空間を特徴付けることで、それらの特性を理解することができる。
広範に再現されたカーネルバナッハ空間に対する表現定理を証明する。
適切な ReLU 活性化関数のクラスに対して、対応するカーネルバナッハ空間のノルムは、有界実測度の逆ラドン変換によって特徴づけられる。
論文 参考訳(メタデータ) (2021-09-20T17:32:30Z) - Analysis of Regularized Learning in Banach Spaces for Linear-functional Data [6.396892356366013]
本稿では,線形関数型データに対するバナッハ空間における正規化学習の理論について考察する。
正規化学習は、バナッハ空間上の正規化経験的リスクを最小限に抑えるように設計されている。
論文 参考訳(メタデータ) (2021-09-07T15:51:12Z) - Complexity-based speciation and genotype representation for
neuroevolution [81.21462458089142]
本稿では、進化するネットワークを隠されたニューロンの数に基づいて種に分類する神経進化の種分化原理を提案する。
提案された種分化原理は、種および生態系全体における多様性の促進と保存を目的として設計されたいくつかの技術で採用されている。
論文 参考訳(メタデータ) (2020-10-11T06:26:56Z) - Neural Splines: Fitting 3D Surfaces with Infinitely-Wide Neural Networks [61.07202852469595]
本稿では,無限幅浅部ReLUネットワークから生じるランダムな特徴カーネルをベースとした3次元表面再構成手法であるNeural Splinesを提案する。
提案手法は,最近のニューラルネットワーク技術より優れ,ポアソン表面再構成に広く用いられている。
論文 参考訳(メタデータ) (2020-06-24T14:54:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。