論文の概要: Unsupervised MKL in Multi-layer Kernel Machines
- arxiv url: http://arxiv.org/abs/2111.13769v1
- Date: Fri, 26 Nov 2021 23:23:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-04 18:01:59.115169
- Title: Unsupervised MKL in Multi-layer Kernel Machines
- Title(参考訳): 多層カーネルマシンにおける教師なしMKL
- Authors: Akhil Meethal and Asharaf S and Sumitra S
- Abstract要約: 多層カーネルマシン(MKM)を用いたカーネルベースのディープラーニングは、Y.Cho と L.K. Saul によって citesaul で提案された。
我々は,教師なし学習戦略に従って,複数のカーネルの凸結合をとることによって,各レイヤに複数のカーネルを使用することを提案する。
- 参考スコア(独自算出の注目度): 1.7403133838762446
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Kernel based Deep Learning using multi-layer kernel machines(MKMs) was
proposed by Y.Cho and L.K. Saul in \cite{saul}. In MKMs they used only one
kernel(arc-cosine kernel) at a layer for the kernel PCA-based feature
extraction. We propose to use multiple kernels in each layer by taking a convex
combination of many kernels following an unsupervised learning strategy.
Empirical study is conducted on \textit{mnist-back-rand},
\textit{mnist-back-image} and \textit{mnist-rot-back-image} datasets generated
by adding random noise in the image background of MNIST dataset. Experimental
results indicate that using MKL in MKMs earns a better representation of the
raw data and improves the classifier performance.
- Abstract(参考訳): 多層カーネルマシン(MKM)を用いたカーネルベースのディープラーニングは、Y.Cho と L.K. Saul が \cite{saul} で提案した。
mkmsでは、1つのカーネル(arc-cosine kernel)のみをカーネルpcaベースの特徴抽出に使用した。
我々は,教師なし学習戦略に従って多数のカーネルの凸結合を行うことで,各層に複数のカーネルを使用することを提案する。
MNISTデータセットの画像背景にランダムノイズを付加して生成したtextit{mnist-back-rand}, \textit{mnist-back-image}, \textit{mnist-rot-back-image}データセットに関する実証的研究を行った。
実験の結果,mkmsにおけるmklの使用は生データの表現性が向上し,分類性能が向上した。
関連論文リスト
- DKL-KAN: Scalable Deep Kernel Learning using Kolmogorov-Arnold Networks [0.0]
本稿では,DKL-MLPを用いたDKLの代替として,kan(DKL-KAN)を用いたスケーラブルなディープカーネルを提案する。
DKL-MLPと比較して,DKL-KANの2つの変種を分析した。
DKL-KANの有効性は、幅広いアプリケーションにわたる計算訓練時間とテスト予測精度の観点から評価される。
論文 参考訳(メタデータ) (2024-07-30T20:30:44Z) - On the Identifiability and Interpretability of Gaussian Process Models [8.417178903130244]
単出力ガウス過程(GP)モデルにおいて,Mat'ernカーネルの加法的混合を用いることの一般的な実践を批判的に検討する。
マタン核の混合の滑らかさは、最小の滑らかな成分によって決定され、そのような核を持つGPは、実質的に最小の滑らかなカーネル成分と等価であることを示す。
A$は乗算定数まで同定可能であることを示し、乗算混合が多出力タスクに適していることを示唆する。
論文 参考訳(メタデータ) (2023-10-25T22:00:29Z) - An approach to the Gaussian RBF kernels via Fock spaces [0.0]
フォック空間とセガル・バルグマン理論の手法を用いてガウス RBF カーネル上でのいくつかの結果を証明する。
RBFカーネルは、量子力学や時間周波数解析において最もよく用いられる演算子とどのように関連付けられるかを示す。
論文 参考訳(メタデータ) (2022-10-25T16:59:00Z) - Multiple Kernel Clustering with Dual Noise Minimization [56.009011016367744]
マルチカーネルクラスタリング(MKC)は、ベースカーネルから補完的な情報を統合することでデータをグループ化する。
本稿では,双対雑音を厳密に定義し,パラメータフリーなMKCアルゴリズムを提案する。
二重ノイズはブロック対角構造を汚染し,クラスタリング性能の劣化を招き,CノイズはNノイズよりも強い破壊を示す。
論文 参考訳(メタデータ) (2022-07-13T08:37:42Z) - Fast and High-Quality Image Denoising via Malleable Convolutions [72.18723834537494]
動的畳み込みの効率的な変種として、Malleable Convolution (MalleConv)を提案する。
以前の作品とは異なり、MalleConvは入力から空間的に変化するカーネルのより小さなセットを生成する。
また、MalleNetという造語であるMalleConvを用いて、効率的なdenoisingネットワークを構築した。
論文 参考訳(メタデータ) (2022-01-02T18:35:20Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - Quantum Multiple Kernel Learning [1.9116668545881028]
カーネルメソッドは、その概念的単純さと優れたパフォーマンスのために、機械学習アプリケーションにおいて重要な役割を果たす。
カーネルマシンの表現性を高める1つのアプローチは、複数の個々のカーネルを組み合わせることである。
複数の量子カーネルを組み合わせた量子MKLを提案する。
論文 参考訳(メタデータ) (2020-11-19T07:19:41Z) - Kernel learning approaches for summarising and combining posterior
similarity matrices [68.8204255655161]
我々は,ベイズクラスタリングモデルに対するMCMCアルゴリズムの出力を要約するための新しいアプローチを提案するために,後部類似性行列(PSM)の概念を構築した。
我々の研究の重要な貢献は、PSMが正の半定値であり、したがって確率的に動機付けられたカーネル行列を定義するのに使用できることである。
論文 参考訳(メタデータ) (2020-09-27T14:16:14Z) - SimpleMKKM: Simple Multiple Kernel K-means [49.500663154085586]
単純なマルチカーネルk-means(SimpleMKKM)と呼ばれる,単純で効果的なマルチカーネルクラスタリングアルゴリズムを提案する。
我々の基準は、カーネル係数とクラスタリング分割行列における難解な最小化最大化問題によって与えられる。
クラスタリング一般化誤差の観点から,SimpleMKKMの性能を理論的に解析する。
論文 参考訳(メタデータ) (2020-05-11T10:06:40Z) - Kernel-Based Reinforcement Learning: A Finite-Time Analysis [53.47210316424326]
モデルに基づく楽観的アルゴリズムであるKernel-UCBVIを導入する。
スパース報酬を伴う連続MDPにおける我々のアプローチを実証的に検証する。
論文 参考訳(メタデータ) (2020-04-12T12:23:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。