論文の概要: Combining Primal and Dual Representations in Deep Restricted Kernel
Machines Classifiers
- arxiv url: http://arxiv.org/abs/2306.07015v1
- Date: Mon, 12 Jun 2023 10:39:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-06-13 15:10:25.054559
- Title: Combining Primal and Dual Representations in Deep Restricted Kernel
Machines Classifiers
- Title(参考訳): 制限されたカーネルマシンのプリマル表現とデュアル表現の組み合わせ
- Authors: Francesco Tonin, Panagiotis Patrinos, Johan A. K. Suykens
- Abstract要約: カーネルメソッドは直接的に深さを利用することはできない。
Deep Restricted Machine(DRKM)フレームワークは、複数のレベルのカーネルPCA(KPCA)とLast-Squares Support Vector Machines(LSSVM)を組み合わせることができる。
そこで本研究では,KPCAの目的と分類レベルを結合したDRKM分類法を提案する。
- 参考スコア(独自算出の注目度): 15.296955630621566
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In contrast to deep networks, kernel methods cannot directly take advantage
of depth. In this regard, the deep Restricted Kernel Machine (DRKM) framework
allows multiple levels of kernel PCA (KPCA) and Least-Squares Support Vector
Machines (LSSVM) to be combined into a deep architecture using visible and
hidden units. We propose a new method for DRKM classification coupling the
objectives of KPCA and classification levels, with the hidden feature matrix
lying on the Stiefel manifold. The classification level can be formulated as an
LSSVM or as an MLP feature map, combining depth in terms of levels and layers.
The classification level is expressed in its primal formulation, as the deep
KPCA levels can embed the most informative components of the data in a much
lower dimensional space. In the experiments on benchmark datasets with few
available training points, we show that our deep method improves over the
LSSVM/MLP and that models with multiple KPCA levels can outperform models with
a single level.
- Abstract(参考訳): ディープネットワークとは対照的に、カーネルメソッドは奥行きを直接利用できない。
この点において、Deep Restricted Kernel Machine (DRKM) フレームワークは、複数のレベルのカーネルPCA (KPCA) とLast-Squares Support Vector Machines (LSSVM) を、可視かつ隠れたユニットを使用したディープアーキテクチャに統合することができる。
そこで本研究では,KPCAの目的と分類レベルを結合したDRKM分類法を提案する。
分類レベルは LSSVM あるいは MLP 特徴マップとして定式化することができ、レベルとレイヤの深さを組み合わせることができる。
分類レベルはその原始的な定式化で表され、深いKPCAレベルはデータの最も情報性の高い成分をより低次元空間に埋め込むことができる。
利用可能なトレーニングポイントが少ないベンチマークデータセットの実験では,LSSVM/MLPよりもディープメソッドが向上し,複数のKPCAレベルのモデルが単一レベルのモデルより優れていることを示す。
関連論文リスト
- Minimally Supervised Learning using Topological Projections in
Self-Organizing Maps [55.31182147885694]
自己組織化マップ(SOM)におけるトポロジカルプロジェクションに基づく半教師付き学習手法を提案する。
提案手法は,まずラベル付きデータ上でSOMを訓練し,最小限のラベル付きデータポイントをキーベストマッチングユニット(BMU)に割り当てる。
提案した最小教師付きモデルが従来の回帰手法を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-01-12T22:51:48Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - Qudit Machine Learning [0.0]
簡単なdレベルシステム(qudit)の学習能力を総合的に検討する。
本研究は,実世界のデータベース,特にIris,乳癌,MNISTデータセットを用いた分類タスクに特化している。
論文 参考訳(メタデータ) (2023-08-30T18:00:04Z) - Feature Selection using Sparse Adaptive Bottleneck Centroid-Encoder [1.2487990897680423]
2つ以上のクラスで識別される特徴を決定するために,新しい非線形モデル SABCE (Sparse Adaptive Bottleneckid-Encoder) を導入する。
このアルゴリズムは、高次元生物学的、画像、音声、加速度センサデータなど、様々な実世界のデータセットに適用される。
論文 参考訳(メタデータ) (2023-06-07T21:37:21Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - A multi-model-based deep learning framework for short text multiclass
classification with the imbalanced and extremely small data set [0.6875312133832077]
本稿では,不均衡かつ極めて小さなデータセットを持つ短文マルチクラス分類のための,マルチモデルに基づくディープラーニングフレームワークを提案する。
精度、リコール、精度、F1スコアの点で最先端のベースライン性能を維持している。
論文 参考訳(メタデータ) (2022-06-24T00:51:02Z) - Memory and Computation-Efficient Kernel SVM via Binary Embedding and
Ternary Model Coefficients [18.52747917850984]
カーネル近似はカーネルSVMのトレーニングと予測のスケールアップに広く用いられている。
メモリ制限されたデバイスにデプロイしたい場合、カーネル近似モデルのメモリと計算コストはまだ高すぎる。
本稿では,バイナリ埋め込みとバイナリモデル係数を用いて,新しいメモリと計算効率の高いカーネルSVMモデルを提案する。
論文 参考訳(メタデータ) (2020-10-06T09:41:54Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z) - A Generic Network Compression Framework for Sequential Recommender
Systems [71.81962915192022]
シークエンシャルレコメンデーションシステム(SRS)は,ユーザの動的関心を捉え,高品質なレコメンデーションを生成する上で重要な技術となっている。
CpRecと呼ばれる圧縮されたシーケンシャルレコメンデーションフレームワークを提案する。
大規模なアブレーション研究により、提案したCpRecは実世界のSRSデータセットにおいて最大4$sim$8倍の圧縮速度を達成できることを示した。
論文 参考訳(メタデータ) (2020-04-21T08:40:55Z) - On Coresets for Support Vector Machines [61.928187390362176]
coresetは、元のデータポイントの小さな、代表的なサブセットである。
我々は,本アルゴリズムを用いて,既製のSVMソルバをストリーミング,分散,動的データ設定に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-02-15T23:25:12Z) - Efficient Structure-preserving Support Tensor Train Machine [0.0]
列車マルチウェイマルチレベルカーネル(TT-MMK)
我々は,ポリアディック分解の単純さ,デュアル構造保存支援機の分類能力,およびTrain Vector近似の信頼性を組み合わせたTrain Multi-way Multi-level Kernel(TT-MMK)を開発した。
実験により,TT-MMK法は通常より信頼性が高く,チューニングパラメータに敏感で,他の最先端技術と比較した場合のSVM分類において高い予測精度が得られた。
論文 参考訳(メタデータ) (2020-02-12T16:35:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。