論文の概要: Learning in RKHM: a $C^*$-Algebraic Twist for Kernel Machines
- arxiv url: http://arxiv.org/abs/2210.11855v3
- Date: Wed, 26 Jun 2024 00:29:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-27 20:13:23.254755
- Title: Learning in RKHM: a $C^*$-Algebraic Twist for Kernel Machines
- Title(参考訳): RKHMでの学習:カーネルマシンのための$C^*$-代数的ツイスト
- Authors: Yuka Hashimoto, Masahiro Ikeda, Hachem Kadri,
- Abstract要約: カーネルヒルベルト空間(RKHS)とベクトル値RKHS(vvRKHS)の再現学習は30年以上にわたって研究されてきた。
我々は、RKHSとvvRKHSの教師あり学習をカーネルHilbert $C*$-module (RKHM) の再生に一般化することで、新しいツイストを提供する。
我々は、$C*$-algebraの観点から、有効正定値カーネルを構築する方法を示す。
- 参考スコア(独自算出の注目度): 13.23700804428796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Supervised learning in reproducing kernel Hilbert space (RKHS) and vector-valued RKHS (vvRKHS) has been investigated for more than 30 years. In this paper, we provide a new twist to this rich literature by generalizing supervised learning in RKHS and vvRKHS to reproducing kernel Hilbert $C^*$-module (RKHM), and show how to construct effective positive-definite kernels by considering the perspective of $C^*$-algebra. Unlike the cases of RKHS and vvRKHS, we can use $C^*$-algebras to enlarge representation spaces. This enables us to construct RKHMs whose representation power goes beyond RKHSs, vvRKHSs, and existing methods such as convolutional neural networks. Our framework is suitable, for example, for effectively analyzing image data by allowing the interaction of Fourier components.
- Abstract(参考訳): カーネルヒルベルト空間(RKHS)とベクトル値RKHS(vvRKHS)の再現学習は30年以上にわたって研究されてきた。
本稿では、RKHSとvvRKHSの教師付き学習をカーネルHilbert $C^*$-module (RKHM)に一般化することで、このリッチな文献に新たなひねりを与えるとともに、$C^*$-algebraの観点から、有効正定値カーネルを構築する方法を示す。
RKHS や vvRKHS とは異なり、表現空間を拡大するために$C^*$-代数を使うことができる。
これにより、RKHS、vvRKHS、畳み込みニューラルネットワークのような既存の手法を超える表現力を持つRKHMを構築することができる。
私たちのフレームワークは、例えば、フーリエ成分の相互作用を許容することにより、画像データを効果的に分析するのに適しています。
関連論文リスト
- Convolutional Filtering with RKHS Algebras [110.06688302593349]
我々は、Kernel Hilbert Spaces(RKHS)の再生のための畳み込み信号処理とニューラルネットワークの理論を開発する。
任意の RKHS が複数の代数的畳み込みモデルの形式的定義を可能にすることを示す。
本研究では,無人航空機による実測値から無線通信を予測できる実データに関する数値実験について述べる。
論文 参考訳(メタデータ) (2024-11-02T18:53:44Z) - Geometric Learning with Positively Decomposable Kernels [6.5497574505866885]
本稿では、正の分解を許容するカーネルのみを必要とするカーネルKrein空間(RKKS)を再現する手法を提案する。
RKKSで学習するためには、この分解にアクセスする必要はない。
論文 参考訳(メタデータ) (2023-10-20T21:18:04Z) - Deep Learning with Kernels through RKHM and the Perron-Frobenius
Operator [14.877070496733966]
再生カーネル Hilbert $C*$-module (RKHM) は、複製カーネル Hilbert 空間 (RKHS) を$C*$-algebra を用いて一般化したものである。
我々は、この設定で有界な新しいラデマッハ一般化を導出し、ペロン・フロベニウス作用素による良性過剰適合の理論的解釈を提供する。
論文 参考訳(メタデータ) (2023-05-23T01:38:41Z) - Neural Networks can Learn Representations with Gradient Descent [68.95262816363288]
特定の状況下では、勾配降下によって訓練されたニューラルネットワークは、カーネルメソッドのように振る舞う。
実際には、ニューラルネットワークが関連するカーネルを強く上回ることが知られている。
論文 参考訳(メタデータ) (2022-06-30T09:24:02Z) - DASHA: Distributed Nonconvex Optimization with Communication
Compression, Optimal Oracle Complexity, and No Client Synchronization [77.34726150561087]
我々は,分散最適化問題に対する新しい手法であるDASHAを開発し,解析する。
MARINAとは異なり、新しいDASHAとDASHA-MVRは圧縮ベクターのみを送信し、ノードを同期しないため、学習をより実用的なものにしている。
論文 参考訳(メタデータ) (2022-02-02T20:10:40Z) - Neural Fields as Learnable Kernels for 3D Reconstruction [101.54431372685018]
本稿では,学習したカーネルリッジの回帰に基づいて,暗黙の3次元形状を再構成する手法を提案する。
本手法は,3次元オブジェクトと大画面をスパース指向の点から再構成する際の最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2021-11-26T18:59:04Z) - Scaling Neural Tangent Kernels via Sketching and Random Features [53.57615759435126]
最近の研究報告では、NTKレグレッションは、小規模データセットでトレーニングされた有限範囲のニューラルネットワークより優れている。
我々は、アークコサインカーネルの拡張をスケッチして、NTKの近距離入力スパーシティ時間近似アルゴリズムを設計する。
CNTKの特徴をトレーニングした線形回帰器が,CIFAR-10データセット上での正確なCNTKの精度と150倍の高速化を実現していることを示す。
論文 参考訳(メタデータ) (2021-06-15T04:44:52Z) - Reproducing kernel Hilbert C*-module and kernel mean embeddings [12.268585269921404]
本稿では,Hilbert $C*$-module (RKHM) とカーネル平均埋め込み (KME) を再現した新しいデータ解析フレームワークを提案する。
代表者定理や提案したKMEの射影率と一般化など,データ解析にRKHMを適用するための理論の分野を示す。
論文 参考訳(メタデータ) (2021-01-27T14:02:18Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Analysis via Orthonormal Systems in Reproducing Kernel Hilbert
$C^*$-Modules and Applications [12.117553807794382]
本稿では,Hilbert $C*$-module (RKHM) を再現した新しいデータ解析フレームワークを提案する。
ヒルベルト$C*$-加群における正則系の構築の理論的妥当性を示し、RKHMにおける正則化の具体的な手順を導出する。
我々は、RKHMカーネルの主成分分析とペロン・フロベニウス作用素を用いた力学系の解析を一般化するためにそれらを適用する。
論文 参考訳(メタデータ) (2020-03-02T10:01:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。