論文の概要: Random Features for Operator-Valued Kernels: Bridging Kernel Methods and Neural Operators
- arxiv url: http://arxiv.org/abs/2603.00971v1
- Date: Sun, 01 Mar 2026 07:49:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.435547
- Title: Random Features for Operator-Valued Kernels: Bridging Kernel Methods and Neural Operators
- Title(参考訳): 演算子値カーネルのランダムな特徴:ブリッジングカーネル法とニューラル演算子
- Authors: Mike Nguyen, Nicole Mücke,
- Abstract要約: 我々は、Tikhonov正則化の先行結果をスペクトル正則化技術の幅広いクラスに拡張する。
また、演算子値のカーネルに設定を一般化する。
- 参考スコア(独自算出の注目度): 0.7090165638014329
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we investigate the generalization properties of random feature methods. Our analysis extends prior results for Tikhonov regularization to a broad class of spectral regularization techniques and further generalizes the setting to operator-valued kernels. This unified framework enables a rigorous theoretical analysis of neural operators and neural networks through the lens of the Neural Tangent Kernel (NTK). In particular, it allows us to establish optimal learning rates and provides a good understanding of how many neurons are required to achieve a given accuracy. Furthermore, we establish minimax rates in the well-specified case and also in the misspecified case, where the target is not contained in the reproducing kernel Hilbert space. These results sharpen and complete earlier findings for specific kernel algorithms.
- Abstract(参考訳): 本研究では,ランダム特徴法の一般化特性について検討する。
我々の分析は、Tikhonov正則化の先行結果をスペクトル正則化の幅広いクラスに拡張し、さらに演算子値のカーネルに設定を一般化する。
この統合されたフレームワークは、ニューラル・タンジェント・カーネル(NTK)のレンズを通して、ニューラルネットワークとニューラルネットワークの厳密な理論的解析を可能にする。
特に、最適な学習率を確立することができ、与えられた精度を達成するのにどれだけのニューロンが必要なのかを十分に理解することができます。
さらに、よく特定された場合や、再現されたカーネルヒルベルト空間にターゲットが含まれない場合にも、最小の最大値を確立する。
これらの結果は、特定のカーネルアルゴリズムの早期発見を鋭くし、完全なものにしている。
関連論文リスト
- Random feature approximation for general spectral methods [2.9388890036358104]
この研究は、Tikhonov正則化の以前の結果をスペクトル正則化技術の幅広いクラスに拡張した。
我々は,ニューラルタンジェントカーネル(NTK)アプローチのレンズを用いて,ニューラルネットワークとニューラル演算子の理論的解析を可能にする。
論文 参考訳(メタデータ) (2025-06-19T13:00:17Z) - Optimal Convergence Rates for Neural Operators [2.9388890036358104]
我々は、隠れたニューロンの数と一般化に必要な第2段階のサンプルの数に制限を与える。
ニューラル作用素のキーとなる応用は、偏微分方程式の解作用素に対する代理写像の学習である。
論文 参考訳(メタデータ) (2024-12-23T12:31:38Z) - Kernel Neural Operators (KNOs) for Scalable, Memory-efficient, Geometrically-flexible Operator Learning [11.165984223900104]
本稿では,KNO(Kernel Neural Operator)について紹介する。
KNOは、数値積分スキーム(四分数)からカーネルの選択を分離する
既存のベンチマークでは、KNOsのトレーニングとテストの精度は、一般的な演算子学習技術と同等かそれ以上であることを示す。
論文 参考訳(メタデータ) (2024-06-30T19:28:12Z) - An Exact Kernel Equivalence for Finite Classification Models [1.4777718769290527]
我々は、その正確な表現をよく知られたニューラルタンジェントカーネル(NTK)と比較し、NTKに対する近似誤差について議論する。
この正確なカーネルを使って、ニューラルネットワークによる予測について、理論的貢献が有益な洞察を提供することを示す。
論文 参考訳(メタデータ) (2023-08-01T20:22:53Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Neural Networks with Sparse Activation Induced by Large Bias: Tighter Analysis with Bias-Generalized NTK [86.45209429863858]
ニューラル・タンジェント・カーネル(NTK)における一層ReLUネットワークのトレーニングについて検討した。
我々は、ニューラルネットワークが、テクティトビア一般化NTKと呼ばれる異なる制限カーネルを持っていることを示した。
ニューラルネットの様々な特性をこの新しいカーネルで研究する。
論文 参考訳(メタデータ) (2023-01-01T02:11:39Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Uniform Generalization Bounds for Overparameterized Neural Networks [5.945320097465419]
カーネルシステムにおけるオーバーパラメータ化ニューラルネットワークに対する一様一般化バウンダリを証明した。
我々の境界は、アクティベーション関数の微分可能性に応じて正確な誤差率をキャプチャする。
NTカーネルに対応するRKHSと、Mat'ernカーネルのファミリーに対応するRKHSの等価性を示す。
論文 参考訳(メタデータ) (2021-09-13T16:20:13Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - Neural Splines: Fitting 3D Surfaces with Infinitely-Wide Neural Networks [61.07202852469595]
本稿では,無限幅浅部ReLUネットワークから生じるランダムな特徴カーネルをベースとした3次元表面再構成手法であるNeural Splinesを提案する。
提案手法は,最近のニューラルネットワーク技術より優れ,ポアソン表面再構成に広く用いられている。
論文 参考訳(メタデータ) (2020-06-24T14:54:59Z) - A Generalized Neural Tangent Kernel Analysis for Two-layer Neural
Networks [87.23360438947114]
重み劣化を伴う雑音勾配降下は依然として「カーネル様」の挙動を示すことを示す。
これは、トレーニング損失が一定の精度まで線形に収束することを意味する。
また,重み劣化を伴う雑音勾配勾配勾配で学習した2層ニューラルネットワークに対して,新しい一般化誤差を確立する。
論文 参考訳(メタデータ) (2020-02-10T18:56:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。