論文の概要: A weighted subspace exponential kernel for support tensor machines
- arxiv url: http://arxiv.org/abs/2302.08134v1
- Date: Thu, 16 Feb 2023 08:03:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-17 14:33:40.530262
- Title: A weighted subspace exponential kernel for support tensor machines
- Title(参考訳): 支持テンソルマシンのための重み付き部分空間指数カーネル
- Authors: Kirandeep Kour, Sergey Dolgov, Peter Benner, Martin Stoll, Max Pfeffer
- Abstract要約: 本研究では,タッカー分解に基づく新しいカーネルを提案する。
どちらの分類シナリオにおいても,新しいカーネルの堅牢性を示す。
提案したカーネルは、最先端のテンソルトレインマルチウェイマルチレベルカーネルよりも高いテスト精度を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-dimensional data in the form of tensors are challenging for kernel
classification methods. To both reduce the computational complexity and extract
informative features, kernels based on low-rank tensor decompositions have been
proposed. However, what decisive features of the tensors are exploited by these
kernels is often unclear. In this paper we propose a novel kernel that is based
on the Tucker decomposition. For this kernel the Tucker factors are computed
based on re-weighting of the Tucker matrices with tuneable powers of singular
values from the HOSVD decomposition. This provides a mechanism to balance the
contribution of the Tucker core and factors of the data. We benchmark support
tensor machines with this new kernel on several datasets. First we generate
synthetic data where two classes differ in either Tucker factors or core, and
compare our novel and previously existing kernels. We show robustness of the
new kernel with respect to both classification scenarios. We further test the
new method on real-world datasets. The proposed kernel has demonstrated a
higher test accuracy than the state-of-the-art tensor train multi-way
multi-level kernel, and a significantly lower computational time.
- Abstract(参考訳): テンソルの形での高次元データは、カーネル分類法では困難である。
計算複雑性を低減し、情報的特徴を抽出するために、低ランクテンソル分解に基づくカーネルが提案されている。
しかし、これらのカーネルによってテンソルの決定的な特徴が悪用されているかはしばしば不明である。
本稿では,タッカー分解に基づく新しいカーネルを提案する。
このカーネルでは、タッカー因子はHOSVD分解から特異値のチューニング可能なパワーを持つタッカー行列の再重み付けに基づいて計算される。
これは、タッカーコアとデータの要素の寄与をバランスさせるメカニズムを提供する。
いくつかのデータセット上で新しいカーネルでテンソルマシンをベンチマークする。
まず、2つのクラスがタッカー因子かコアで異なる合成データを生成し、新しいカーネルと既存のカーネルを比較します。
どちらの分類シナリオにおいても,新しいカーネルの堅牢性を示す。
さらに,本手法を実世界のデータセット上でテストする。
提案するカーネルは、最先端のテンソルトレインマルチウェイマルチレベルカーネルよりも高いテスト精度を示し、計算時間を大幅に削減した。
関連論文リスト
- Spectral Truncation Kernels: Noncommutativity in $C^*$-algebraic Kernel Machines [12.11705128358537]
スペクトルトランケーションに基づく正定値カーネルの新しいクラスを提案する。
性能向上につながる要因であることを示す。
また,スペクトルトランケーションカーネルの表現能力を高めるための深層学習の視点も提案する。
論文 参考訳(メタデータ) (2024-05-28T04:47:12Z) - Snacks: a fast large-scale kernel SVM solver [0.8602553195689513]
SnacksはKernel Support Vector Machines用の新しい大規模ソルバである。
スナックは、カーネル行列の「Nystr」近似と、下次法の加速変種に依存している。
論文 参考訳(メタデータ) (2023-04-17T04:19:20Z) - Kernel Subspace and Feature Extraction [7.424262881242935]
特徴部分空間の観点から,機械学習におけるカーネル手法について検討する。
我々は、ヒルシュフェルト-ゲベライン-レーニの最大相関関数からカーネルを構築し、最大相関カーネルを作成し、その情報理論の最適性を示す。
論文 参考訳(メタデータ) (2023-01-04T02:46:11Z) - Neural Networks as Kernel Learners: The Silent Alignment Effect [86.44610122423994]
遅延トレーニング体制におけるニューラルネットワークは、カーネルマシンに収束する。
これは、サイレントアライメント(サイレントアライメント)という現象のためである。
また、非白データは無声アライメント効果を弱めることを示した。
論文 参考訳(メタデータ) (2021-10-29T18:22:46Z) - Kernel Continual Learning [117.79080100313722]
カーネル連続学習は、破滅的な忘れ事に取り組むための、シンプルだが効果的な連続学習の変種である。
エピソードメモリユニットは、カーネルリッジ回帰に基づいてタスク固有の分類器を学ぶために、各タスクのサンプルのサブセットを格納する。
タスク毎にデータ駆動カーネルを学ぶための変動ランダム機能。
論文 参考訳(メタデータ) (2021-07-12T22:09:30Z) - Kernel Identification Through Transformers [54.3795894579111]
カーネル選択はガウス過程(GP)モデルの性能決定において中心的な役割を果たす。
この研究は、高次元GP回帰モデルのためのカスタムカーネル関数を構築するという課題に対処する。
KITT: Kernel Identification through Transformersを提案する。
論文 参考訳(メタデータ) (2021-06-15T14:32:38Z) - Kernelized Classification in Deep Networks [49.47339560731506]
本稿では,ディープネットワークのためのカーネル分類層を提案する。
訓練中のSoftmaxクロスエントロピー損失関数のカーネルトリックを用いて非線形分類層を提唱する。
提案する非線形分類層は,複数のデータセットやタスクに対して有用であることを示す。
論文 参考訳(メタデータ) (2020-12-08T21:43:19Z) - Isolation Distributional Kernel: A New Tool for Point & Group Anomaly
Detection [76.1522587605852]
分離分散カーネル(IDK)は2つの分布の類似性を測定する新しい方法である。
我々は、カーネルベースの異常検出のための新しいツールとして、IDKの有効性と効率を示す。
論文 参考訳(メタデータ) (2020-09-24T12:25:43Z) - On the Similarity between the Laplace and Neural Tangent Kernels [26.371904197642145]
完全に接続されたネットワークに対するNTKは標準のLaplaceカーネルと密接に関連していることを示す。
この結果から,よく知られたLaplaceカーネルの解析から,ニューラルネットワークに関する多くの知見が得られることが示唆された。
論文 参考訳(メタデータ) (2020-07-03T09:48:23Z) - Learning Deep Kernels for Non-Parametric Two-Sample Tests [50.92621794426821]
2組のサンプルが同じ分布から引き出されるかどうかを判定するカーネルベースの2サンプルテストのクラスを提案する。
私たちのテストは、テストパワーを最大化するためにトレーニングされたディープニューラルネットワークによってパラメータ化されたカーネルから構築されます。
論文 参考訳(メタデータ) (2020-02-21T03:54:23Z) - Kernelized Support Tensor Train Machines [12.04930950942911]
本稿では, テンソルトレイン(TT)ベースのカーネル手法を初めて提案し, イメージ分類のための従来のサポートベクトルマシン(SVM)に適用する。
具体的には、テンソル入力を受け入れ、固有のカーネル特性を保持する、カーネル化されたサポートテンソルトレインマシンを提案する。
論文 参考訳(メタデータ) (2020-01-02T08:40:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。