論文の概要: Spectral Truncation Kernels: Noncommutativity in $C^*$-algebraic Kernel Machines
- arxiv url: http://arxiv.org/abs/2405.17823v3
- Date: Thu, 03 Oct 2024 02:19:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-05 03:34:36.216020
- Title: Spectral Truncation Kernels: Noncommutativity in $C^*$-algebraic Kernel Machines
- Title(参考訳): スペクトルトランニケーションカーネル:$C^*$-代数カーネルマシンにおける非可換性
- Authors: Yuka Hashimoto, Ayoub Hafid, Masahiro Ikeda, Hachem Kadri,
- Abstract要約: スペクトルトランケーションに基づく正定値カーネルの新しいクラスを提案する。
性能向上につながる要因であることを示す。
また,スペクトルトランケーションカーネルの表現能力を高めるための深層学習の視点も提案する。
- 参考スコア(独自算出の注目度): 12.11705128358537
- License:
- Abstract: $C^*$-algebra-valued kernels could pave the way for the next generation of kernel machines. To further our fundamental understanding of learning with $C^*$-algebraic kernels, we propose a new class of positive definite kernels based on the spectral truncation. We focus on kernels whose inputs and outputs are vectors or functions and generalize typical kernels by introducing the noncommutativity of the products appearing in the kernels. The noncommutativity induces interactions along the data function domain. We show that it is a governing factor leading to performance enhancement: we can balance the representation power and the model complexity. We also propose a deep learning perspective to increase the representation capacity of spectral truncation kernels. The flexibility of the proposed class of kernels allows us to go beyond previous commutative kernels, addressing two of the foremost issues regarding learning in vector-valued RKHSs, namely the choice of the kernel and the computational cost.
- Abstract(参考訳): C^*$-algebra-valued kernels は次世代のカーネルマシンへの道を開くことができる。
C^*$-代数的カーネルを用いた学習の基本的な理解を深めるために、スペクトルトランケーションに基づく正定値カーネルの新しいクラスを提案する。
入力と出力がベクトルあるいは関数であるカーネルに注目し、カーネルに現れる製品の非可換性を導入することで、典型的なカーネルを一般化する。
非可換性はデータ関数領域に沿った相互作用を誘導する。
表現力とモデルの複雑さのバランスをとることができる。
また,スペクトルトランケーションカーネルの表現能力を高めるための深層学習の視点も提案する。
提案するカーネルの柔軟性により,従来の可換カーネルを超越して,ベクトル値RKHSの学習,すなわちカーネルの選択と計算コストの2つの問題に対処することができる。
関連論文リスト
- Kernel Subspace and Feature Extraction [7.424262881242935]
特徴部分空間の観点から,機械学習におけるカーネル手法について検討する。
我々は、ヒルシュフェルト-ゲベライン-レーニの最大相関関数からカーネルを構築し、最大相関カーネルを作成し、その情報理論の最適性を示す。
論文 参考訳(メタデータ) (2023-01-04T02:46:11Z) - On Kernel Regression with Data-Dependent Kernels [0.0]
トレーニングデータを見た後にカーネルを更新できるカーネルレグレッションについて検討する。
データ依存型カーネル学習者としてのディープニューラルネットワークの視点への接続について論じる。
論文 参考訳(メタデータ) (2022-09-04T20:46:01Z) - Neural Networks can Learn Representations with Gradient Descent [68.95262816363288]
特定の状況下では、勾配降下によって訓練されたニューラルネットワークは、カーネルメソッドのように振る舞う。
実際には、ニューラルネットワークが関連するカーネルを強く上回ることが知られている。
論文 参考訳(メタデータ) (2022-06-30T09:24:02Z) - Neural Networks as Kernel Learners: The Silent Alignment Effect [86.44610122423994]
遅延トレーニング体制におけるニューラルネットワークは、カーネルマシンに収束する。
これは、サイレントアライメント(サイレントアライメント)という現象のためである。
また、非白データは無声アライメント効果を弱めることを示した。
論文 参考訳(メタデータ) (2021-10-29T18:22:46Z) - Fast Sketching of Polynomial Kernels of Polynomial Degree [61.83993156683605]
他のカーネルはしばしばテイラー級数展開を通じてカーネルによって近似されるので、カーネルは特に重要である。
スケッチの最近の技術は、カーネルの$q$という難解な程度に実行時間に依存することを減らしている。
我々は、この実行時間を大幅に改善する新しいスケッチを、先頭の注文項で$q$への依存を取り除くことで提供します。
論文 参考訳(メタデータ) (2021-08-21T02:14:55Z) - Taming Nonconvexity in Kernel Feature Selection---Favorable Properties
of the Laplace Kernel [77.73399781313893]
カーネルベースの特徴選択の客観的機能を確立することが課題である。
非言語最適化に利用可能な勾配に基づくアルゴリズムは、局所ミニマへの収束を保証できるだけである。
論文 参考訳(メタデータ) (2021-06-17T11:05:48Z) - Reproducing Kernel Hilbert Space, Mercer's Theorem, Eigenfunctions,
Nystr\"om Method, and Use of Kernels in Machine Learning: Tutorial and Survey [5.967999555890417]
まず、機能分析と機械学習におけるカーネルの歴史のレビューから始めます。
本稿では,カーネル手法,半確定プログラミングによるカーネル学習,Hilbert-Schmidt独立性基準,最大平均誤差,カーネル平均埋め込み,カーネル次元削減など,機械学習におけるカーネルの利用方法を紹介する。
本論文は, 機械学習, 次元減少, 数学の関数解析, 量子力学の数学物理学など, 様々な科学分野に有用である。
論文 参考訳(メタデータ) (2021-06-15T21:29:12Z) - Kernel Identification Through Transformers [54.3795894579111]
カーネル選択はガウス過程(GP)モデルの性能決定において中心的な役割を果たす。
この研究は、高次元GP回帰モデルのためのカスタムカーネル関数を構築するという課題に対処する。
KITT: Kernel Identification through Transformersを提案する。
論文 参考訳(メタデータ) (2021-06-15T14:32:38Z) - Covariant quantum kernels for data with group structure [1.51714450051254]
グループ構造を持つデータに使用できる量子カーネルのクラスを紹介する。
本手法を,グループにおける多くの本質的な学習課題の構造を具現化したコセット空間上の学習問題に適用する。
論文 参考訳(メタデータ) (2021-05-07T17:38:58Z) - Entangled Kernels -- Beyond Separability [10.381276986079865]
演算子値カーネル学習の問題を考察し、よく知られた分離可能なカーネルを超える可能性を検討する。
演算子値カーネルに関する新たな見解を提案し,従来知られていた演算子値カーネルを包含する一般的なカーネルファミリーを定義する。
この枠組みでは、分離不能なエンタングルカーネルと呼ばれる演算子値カーネルの新たなクラスを導入する。
論文 参考訳(メタデータ) (2021-01-14T09:18:02Z) - Isolation Distributional Kernel: A New Tool for Point & Group Anomaly
Detection [76.1522587605852]
分離分散カーネル(IDK)は2つの分布の類似性を測定する新しい方法である。
我々は、カーネルベースの異常検出のための新しいツールとして、IDKの有効性と効率を示す。
論文 参考訳(メタデータ) (2020-09-24T12:25:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。