論文の概要: Deep Learning with Kernels through RKHM and the Perron-Frobenius
Operator
- arxiv url: http://arxiv.org/abs/2305.13588v2
- Date: Sat, 4 Nov 2023 09:25:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 22:41:12.479838
- Title: Deep Learning with Kernels through RKHM and the Perron-Frobenius
Operator
- Title(参考訳): RKHMとペロン・フロベニウス演算子によるカーネルによる深層学習
- Authors: Yuka Hashimoto, Masahiro Ikeda, Hachem Kadri
- Abstract要約: 再生カーネル Hilbert $C*$-module (RKHM) は、複製カーネル Hilbert 空間 (RKHS) を$C*$-algebra を用いて一般化したものである。
我々は、この設定で有界な新しいラデマッハ一般化を導出し、ペロン・フロベニウス作用素による良性過剰適合の理論的解釈を提供する。
- 参考スコア(独自算出の注目度): 14.877070496733966
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reproducing kernel Hilbert $C^*$-module (RKHM) is a generalization of
reproducing kernel Hilbert space (RKHS) by means of $C^*$-algebra, and the
Perron-Frobenius operator is a linear operator related to the composition of
functions. Combining these two concepts, we present deep RKHM, a deep learning
framework for kernel methods. We derive a new Rademacher generalization bound
in this setting and provide a theoretical interpretation of benign overfitting
by means of Perron-Frobenius operators. By virtue of $C^*$-algebra, the
dependency of the bound on output dimension is milder than existing bounds. We
show that $C^*$-algebra is a suitable tool for deep learning with kernels,
enabling us to take advantage of the product structure of operators and to
provide a clear connection with convolutional neural networks. Our theoretical
analysis provides a new lens through which one can design and analyze deep
kernel methods.
- Abstract(参考訳): 再生カーネル Hilbert $C^*$-module (RKHM) は、C^*$-algebra を用いて再生カーネル Hilbert 空間 (RKHS) の一般化であり、ペロン・フロベニウス作用素は函数の構成に関連する線型作用素である。
これら2つの概念を組み合わせることで、カーネルメソッドのディープラーニングフレームワークであるDeep RKHMを提案する。
この設定で束縛された新しいラデマッハ一般化を導出し、ペロン・フロベニウス作用素による良性過剰の理論的解釈を提供する。
C^*$-algebraにより、出力次元上の境界の依存性は、既存の境界よりも緩やかである。
C^*$-algebraはカーネルによるディープラーニングに適したツールであり、演算子の製品構造を活用でき、畳み込みニューラルネットワークとの明確な接続を提供することができる。
我々の理論的解析は、深いカーネルメソッドを設計、分析できる新しいレンズを提供する。
関連論文リスト
- Kernel Neural Operators (KNOs) for Scalable, Memory-efficient, Geometrically-flexible Operator Learning [15.050519590538634]
Kernel Neural Operator (KNO)は、新しい演算子学習技術である。
ディープカーネルベースの積分演算子と、作用素の関数空間近似のための二次演算子を併用する。
KNOは、低メモリ、幾何学的に柔軟な深層演算子学習の新しいパラダイムである。
論文 参考訳(メタデータ) (2024-06-30T19:28:12Z) - Linear quadratic control of nonlinear systems with Koopman operator
learning and the Nystr\"om method [15.747820715709937]
計算量を大幅に削減するために,ランダムな部分空間をどのように利用できるかを示す。
我々の主な技術的貢献は、Nystr"om近似の効果に関する理論的保証を導出することである。
論文 参考訳(メタデータ) (2024-03-05T09:28:40Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - An approach to the Gaussian RBF kernels via Fock spaces [0.0]
フォック空間とセガル・バルグマン理論の手法を用いてガウス RBF カーネル上でのいくつかの結果を証明する。
RBFカーネルは、量子力学や時間周波数解析において最もよく用いられる演算子とどのように関連付けられるかを示す。
論文 参考訳(メタデータ) (2022-10-25T16:59:00Z) - Learning in RKHM: a $C^*$-Algebraic Twist for Kernel Machines [13.23700804428796]
カーネルヒルベルト空間(RKHS)とベクトル値RKHS(vvRKHS)の再現学習は30年以上にわたって研究されてきた。
我々は、RKHSとvvRKHSの教師あり学習をカーネルHilbert $C*$-module (RKHM) の再生に一般化することで、新しいツイストを提供する。
我々は、$C*$-algebraの観点から、有効正定値カーネルを構築する方法を示す。
論文 参考訳(メタデータ) (2022-10-21T10:23:54Z) - Vector-valued Gaussian Processes on Riemannian Manifolds via Gauge
Equivariant Projected Kernels [108.60991563944351]
本稿では、ベクトル値のガウス過程を幾何学に忠実に誘導するゲージ同変カーネルの構築法を提案する。
我々は,変分推論などの標準ガウスプロセストレーニング手法を,この設定に拡張する。
論文 参考訳(メタデータ) (2021-10-27T13:31:10Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Estimating Koopman operators for nonlinear dynamical systems: a
nonparametric approach [77.77696851397539]
Koopman演算子は非線形系の線形記述を可能にする数学的ツールである。
本稿では,その核となる部分を同一フレームワークのデュアルバージョンとして捉え,それらをカーネルフレームワークに組み込む。
カーネルメソッドとKoopman演算子との強力なリンクを確立し、Kernel関数を通じて後者を推定する。
論文 参考訳(メタデータ) (2021-03-25T11:08:26Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z) - Analysis via Orthonormal Systems in Reproducing Kernel Hilbert
$C^*$-Modules and Applications [12.117553807794382]
本稿では,Hilbert $C*$-module (RKHM) を再現した新しいデータ解析フレームワークを提案する。
ヒルベルト$C*$-加群における正則系の構築の理論的妥当性を示し、RKHMにおける正則化の具体的な手順を導出する。
我々は、RKHMカーネルの主成分分析とペロン・フロベニウス作用素を用いた力学系の解析を一般化するためにそれらを適用する。
論文 参考訳(メタデータ) (2020-03-02T10:01:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。