論文の概要: Multiple Locally Linear Kernel Machines
- arxiv url: http://arxiv.org/abs/2401.09629v1
- Date: Wed, 17 Jan 2024 22:43:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-19 18:20:25.728246
- Title: Multiple Locally Linear Kernel Machines
- Title(参考訳): 複数の局所線形カーネルマシン
- Authors: David Picard
- Abstract要約: 局所線形分類器の組み合わせに基づく非線形分類器を提案する。
ストリーミングカーネルを扱うスケーラブルな汎用MKLトレーニングアルゴリズムを提供する。
- 参考スコア(独自算出の注目度): 14.282867638200699
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we propose a new non-linear classifier based on a combination
of locally linear classifiers. A well known optimization formulation is given
as we cast the problem in a $\ell_1$ Multiple Kernel Learning (MKL) problem
using many locally linear kernels. Since the number of such kernels is huge, we
provide a scalable generic MKL training algorithm handling streaming kernels.
With respect to the inference time, the resulting classifier fits the gap
between high accuracy but slow non-linear classifiers (such as classical MKL)
and fast but low accuracy linear classifiers.
- Abstract(参考訳): 本稿では,局所線形分類器の組み合わせに基づく新しい非線形分類器を提案する。
多くの局所線形カーネルを用いた$\ell_1$ Multiple Kernel Learning (MKL) 問題に問題を投げかけたことで、よく知られた最適化式が与えられる。
このようなカーネルの数は巨大であるため、ストリーミングカーネルを扱うスケーラブルな汎用mklトレーニングアルゴリズムを提供する。
推定時間に関して、結果として得られる分類器は、高精度だが遅い非線形分類器(古典的mklなど)と高速だが低精度な線形分類器とのギャップに適合する。
関連論文リスト
- Generating Multi-Center Classifier via Conditional Gaussian Distribution [7.77615886942767]
実世界のデータでは、1つのクラスは複数の局所的なクラスタ(例えば異なるポーズの鳥)を含むことができる。
各クラスに対して条件付きガウス分布を作成し、次に複数のサブセンターをサンプリングする。
このアプローチにより、モデルがクラス内の局所構造をより効率的にキャプチャできる。
論文 参考訳(メタデータ) (2024-01-29T08:06:33Z) - Snacks: a fast large-scale kernel SVM solver [0.8602553195689513]
SnacksはKernel Support Vector Machines用の新しい大規模ソルバである。
スナックは、カーネル行列の「Nystr」近似と、下次法の加速変種に依存している。
論文 参考訳(メタデータ) (2023-04-17T04:19:20Z) - Efficient Convex Algorithms for Universal Kernel Learning [50.877957471649395]
カーネルの理想的な集合: 線形パラメータ化(トラクタビリティ)を認める; すべてのカーネルの集合に密着する(正確性)。
従来のカーネル最適化アルゴリズムは分類に限られており、計算に複雑なセミデフィニティプログラミング(SDP)アルゴリズムに依存していた。
本稿では,従来のSDP手法と比較して計算量を大幅に削減するSVD-QCQPQPアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-15T04:57:37Z) - Local Sample-weighted Multiple Kernel Clustering with Consensus
Discriminative Graph [73.68184322526338]
マルチカーネルクラスタリング(MKC)は、ベースカーネルの集合から最適な情報融合を実現するためにコミットされる。
本稿では,新しい局所サンプル重み付きマルチカーネルクラスタリングモデルを提案する。
実験により, LSWMKCはより優れた局所多様体表現を有し, 既存のカーネルやグラフベースのクラスタリングアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2022-07-05T05:00:38Z) - High-Dimensional Sparse Bayesian Learning without Covariance Matrices [66.60078365202867]
共分散行列の明示的な構成を避ける新しい推論手法を提案する。
本手法では, 数値線形代数と共役勾配アルゴリズムの対角線推定結果とを結合する。
いくつかのシミュレーションにおいて,本手法は計算時間とメモリにおける既存手法よりも拡張性が高い。
論文 参考訳(メタデータ) (2022-02-25T16:35:26Z) - Learning in High-Dimensional Feature Spaces Using ANOVA-Based Fast
Matrix-Vector Multiplication [0.0]
カーネル行列は一般に密度が高く大規模である。特徴空間の次元によっては、合理的な時間における全てのエントリの計算さえも難しい課題となる。
そこで我々は,ANOVAカーネルを用いて低次元の特徴空間に基づいて複数のカーネルを構築し,行列ベクトル積を実現する高速アルゴリズムを提案する。
特徴グループ化アプローチに基づいて,カーネルリッジ回帰と事前条件付き共役勾配解法を選択する学習手法に,高速な行列ベクトル積を組み込む方法を示す。
論文 参考訳(メタデータ) (2021-11-19T10:29:39Z) - Kernel Identification Through Transformers [54.3795894579111]
カーネル選択はガウス過程(GP)モデルの性能決定において中心的な役割を果たす。
この研究は、高次元GP回帰モデルのためのカスタムカーネル関数を構築するという課題に対処する。
KITT: Kernel Identification through Transformersを提案する。
論文 参考訳(メタデータ) (2021-06-15T14:32:38Z) - Kernelized Classification in Deep Networks [49.47339560731506]
本稿では,ディープネットワークのためのカーネル分類層を提案する。
訓練中のSoftmaxクロスエントロピー損失関数のカーネルトリックを用いて非線形分類層を提唱する。
提案する非線形分類層は,複数のデータセットやタスクに対して有用であることを示す。
論文 参考訳(メタデータ) (2020-12-08T21:43:19Z) - $\ell_p$-Norm Multiple Kernel One-Class Fisher Null-Space [15.000818334408802]
1クラス分類(OCC)における多重カーネル学習(MKL)問題に対処する。
本稿では,カーネル重みに対する一般の$ell_p$-norm制約(pgeq1$)を考慮したマルチカーネル学習アルゴリズムを提案する。
提案した一級MKL手法の拡張は、いくつかの関連する一級MKLタスクが共同で学習される場合にも考慮される。
論文 参考訳(メタデータ) (2020-08-19T19:25:55Z) - SimpleMKKM: Simple Multiple Kernel K-means [49.500663154085586]
単純なマルチカーネルk-means(SimpleMKKM)と呼ばれる,単純で効果的なマルチカーネルクラスタリングアルゴリズムを提案する。
我々の基準は、カーネル係数とクラスタリング分割行列における難解な最小化最大化問題によって与えられる。
クラスタリング一般化誤差の観点から,SimpleMKKMの性能を理論的に解析する。
論文 参考訳(メタデータ) (2020-05-11T10:06:40Z) - Nonlinear classifiers for ranking problems based on kernelized SVM [0.0]
多くの分類問題は、全てのサンプルではなく、最も関連性の高いサンプルのみの性能を最大化することに焦点を当てている。
本稿では、これらの線形分類問題のいくつかのクラスを含む一般的な枠組みを導出する。
問題を二元化し、カーネルを追加し、コンポーネントワイドのアセンジ法を提案する。
論文 参考訳(メタデータ) (2020-02-26T12:37:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。