論文の概要: Multiple Locally Linear Kernel Machines
- arxiv url: http://arxiv.org/abs/2401.09629v1
- Date: Wed, 17 Jan 2024 22:43:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-19 18:20:25.728246
- Title: Multiple Locally Linear Kernel Machines
- Title(参考訳): 複数の局所線形カーネルマシン
- Authors: David Picard
- Abstract要約: 局所線形分類器の組み合わせに基づく非線形分類器を提案する。
ストリーミングカーネルを扱うスケーラブルな汎用MKLトレーニングアルゴリズムを提供する。
- 参考スコア(独自算出の注目度): 14.282867638200699
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we propose a new non-linear classifier based on a combination
of locally linear classifiers. A well known optimization formulation is given
as we cast the problem in a $\ell_1$ Multiple Kernel Learning (MKL) problem
using many locally linear kernels. Since the number of such kernels is huge, we
provide a scalable generic MKL training algorithm handling streaming kernels.
With respect to the inference time, the resulting classifier fits the gap
between high accuracy but slow non-linear classifiers (such as classical MKL)
and fast but low accuracy linear classifiers.
- Abstract(参考訳): 本稿では,局所線形分類器の組み合わせに基づく新しい非線形分類器を提案する。
多くの局所線形カーネルを用いた$\ell_1$ Multiple Kernel Learning (MKL) 問題に問題を投げかけたことで、よく知られた最適化式が与えられる。
このようなカーネルの数は巨大であるため、ストリーミングカーネルを扱うスケーラブルな汎用mklトレーニングアルゴリズムを提供する。
推定時間に関して、結果として得られる分類器は、高精度だが遅い非線形分類器(古典的mklなど)と高速だが低精度な線形分類器とのギャップに適合する。
関連論文リスト
- Fast and Scalable Multi-Kernel Encoder Classifier [4.178980693837599]
提案手法は,高速でスケーラブルなカーネルマトリックスの埋め込みを容易にするとともに,複数のカーネルをシームレスに統合して学習プロセスを向上する。
我々の理論解析は、確率変数を用いたこのアプローチの集団レベルの特徴付けを提供する。
論文 参考訳(メタデータ) (2024-06-04T10:34:40Z) - Fast Evaluation of Additive Kernels: Feature Arrangement, Fourier Methods, and Kernel Derivatives [0.5735035463793009]
厳密な誤り解析を伴う非等間隔高速フーリエ変換(NFFT)に基づく手法を提案する。
また,本手法は,カーネルの分化に伴う行列の近似に適していることを示す。
複数のデータセット上で高速な行列ベクトル積を持つ付加的カーネルスキームの性能について述べる。
論文 参考訳(メタデータ) (2024-04-26T11:50:16Z) - Generating Multi-Center Classifier via Conditional Gaussian Distribution [7.77615886942767]
実世界のデータでは、1つのクラスは複数の局所的なクラスタ(例えば異なるポーズの鳥)を含むことができる。
各クラスに対して条件付きガウス分布を作成し、次に複数のサブセンターをサンプリングする。
このアプローチにより、モデルがクラス内の局所構造をより効率的にキャプチャできる。
論文 参考訳(メタデータ) (2024-01-29T08:06:33Z) - Local Sample-weighted Multiple Kernel Clustering with Consensus
Discriminative Graph [73.68184322526338]
マルチカーネルクラスタリング(MKC)は、ベースカーネルの集合から最適な情報融合を実現するためにコミットされる。
本稿では,新しい局所サンプル重み付きマルチカーネルクラスタリングモデルを提案する。
実験により, LSWMKCはより優れた局所多様体表現を有し, 既存のカーネルやグラフベースのクラスタリングアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2022-07-05T05:00:38Z) - Generalized Reference Kernel for One-class Classification [100.53532594448048]
我々は、参照ベクトルの集合を用いて、元のベースカーネルを改善するために、新しい一般化された参照カーネルを定式化する。
解析および実験結果から、新しい定式化は、カーネル自体に付加的な情報を導入し、ランクを調整し、調整するためのアプローチを提供することが示された。
論文 参考訳(メタデータ) (2022-05-01T18:36:55Z) - High-Dimensional Sparse Bayesian Learning without Covariance Matrices [66.60078365202867]
共分散行列の明示的な構成を避ける新しい推論手法を提案する。
本手法では, 数値線形代数と共役勾配アルゴリズムの対角線推定結果とを結合する。
いくつかのシミュレーションにおいて,本手法は計算時間とメモリにおける既存手法よりも拡張性が高い。
論文 参考訳(メタデータ) (2022-02-25T16:35:26Z) - Learning in High-Dimensional Feature Spaces Using ANOVA-Based Fast
Matrix-Vector Multiplication [0.0]
カーネル行列は一般に密度が高く大規模である。特徴空間の次元によっては、合理的な時間における全てのエントリの計算さえも難しい課題となる。
そこで我々は,ANOVAカーネルを用いて低次元の特徴空間に基づいて複数のカーネルを構築し,行列ベクトル積を実現する高速アルゴリズムを提案する。
特徴グループ化アプローチに基づいて,カーネルリッジ回帰と事前条件付き共役勾配解法を選択する学習手法に,高速な行列ベクトル積を組み込む方法を示す。
論文 参考訳(メタデータ) (2021-11-19T10:29:39Z) - Kernel Identification Through Transformers [54.3795894579111]
カーネル選択はガウス過程(GP)モデルの性能決定において中心的な役割を果たす。
この研究は、高次元GP回帰モデルのためのカスタムカーネル関数を構築するという課題に対処する。
KITT: Kernel Identification through Transformersを提案する。
論文 参考訳(メタデータ) (2021-06-15T14:32:38Z) - Kernelized Classification in Deep Networks [49.47339560731506]
本稿では,ディープネットワークのためのカーネル分類層を提案する。
訓練中のSoftmaxクロスエントロピー損失関数のカーネルトリックを用いて非線形分類層を提唱する。
提案する非線形分類層は,複数のデータセットやタスクに対して有用であることを示す。
論文 参考訳(メタデータ) (2020-12-08T21:43:19Z) - SimpleMKKM: Simple Multiple Kernel K-means [49.500663154085586]
単純なマルチカーネルk-means(SimpleMKKM)と呼ばれる,単純で効果的なマルチカーネルクラスタリングアルゴリズムを提案する。
我々の基準は、カーネル係数とクラスタリング分割行列における難解な最小化最大化問題によって与えられる。
クラスタリング一般化誤差の観点から,SimpleMKKMの性能を理論的に解析する。
論文 参考訳(メタデータ) (2020-05-11T10:06:40Z) - Nonlinear classifiers for ranking problems based on kernelized SVM [0.0]
多くの分類問題は、全てのサンプルではなく、最も関連性の高いサンプルのみの性能を最大化することに焦点を当てている。
本稿では、これらの線形分類問題のいくつかのクラスを含む一般的な枠組みを導出する。
問題を二元化し、カーネルを追加し、コンポーネントワイドのアセンジ法を提案する。
論文 参考訳(メタデータ) (2020-02-26T12:37:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。