論文の概要: Snacks: a fast large-scale kernel SVM solver
- arxiv url: http://arxiv.org/abs/2304.07983v1
- Date: Mon, 17 Apr 2023 04:19:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 16:24:01.937627
- Title: Snacks: a fast large-scale kernel SVM solver
- Title(参考訳): Snacks: 高速な大規模カーネルSVMソルバ
- Authors: Sofiane Tanji and Andrea Della Vecchia and Fran\c{c}ois Glineur and
Silvia Villa
- Abstract要約: SnacksはKernel Support Vector Machines用の新しい大規模ソルバである。
スナックは、カーネル行列の「Nystr」近似と、下次法の加速変種に依存している。
- 参考スコア(独自算出の注目度): 0.8602553195689513
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Kernel methods provide a powerful framework for non parametric learning. They
are based on kernel functions and allow learning in a rich functional space
while applying linear statistical learning tools, such as Ridge Regression or
Support Vector Machines. However, standard kernel methods suffer from a
quadratic time and memory complexity in the number of data points and thus have
limited applications in large-scale learning. In this paper, we propose Snacks,
a new large-scale solver for Kernel Support Vector Machines. Specifically,
Snacks relies on a Nystr\"om approximation of the kernel matrix and an
accelerated variant of the stochastic subgradient method. We demonstrate
formally through a detailed empirical evaluation, that it competes with other
SVM solvers on a variety of benchmark datasets.
- Abstract(参考訳): カーネルメソッドは非パラメトリック学習のための強力なフレームワークを提供する。
これらはカーネル関数に基づいており、リッジ回帰やサポートベクターマシンといった線形統計学習ツールを適用しながら、豊富な関数空間で学習することができる。
しかしながら、標準的なカーネルメソッドは、データポイント数において二次時間とメモリの複雑さに苦しむため、大規模学習に限定的な応用がある。
本稿では,カーネルサポートベクターマシンのための新しい大規模解法スナックを提案する。
具体的には、Snacks は Nystr\"om approximation of the kernel matrix and a accelerated variant of the stochastic subgradient method に依存する。
我々は、様々なベンチマークデータセットで他のsvmソルバと競合する詳細な経験的評価を通じて正式に実証する。
関連論文リスト
- Fast Evaluation of Additive Kernels: Feature Arrangement, Fourier Methods, and Kernel Derivatives [0.5735035463793009]
厳密な誤り解析を伴う非等間隔高速フーリエ変換(NFFT)に基づく手法を提案する。
また,本手法は,カーネルの分化に伴う行列の近似に適していることを示す。
複数のデータセット上で高速な行列ベクトル積を持つ付加的カーネルスキームの性能について述べる。
論文 参考訳(メタデータ) (2024-04-26T11:50:16Z) - A new trigonometric kernel function for SVM [0.0]
本稿では,機械学習アルゴリズムのパラメータを1つ含む新しい三角関数を提案する。
また,カーネル-SVM法とカーネル-SVR法の実証評価を行い,その性能を実証した。
論文 参考訳(メタデータ) (2022-10-16T17:10:52Z) - Learning in High-Dimensional Feature Spaces Using ANOVA-Based Fast
Matrix-Vector Multiplication [0.0]
カーネル行列は一般に密度が高く大規模である。特徴空間の次元によっては、合理的な時間における全てのエントリの計算さえも難しい課題となる。
そこで我々は,ANOVAカーネルを用いて低次元の特徴空間に基づいて複数のカーネルを構築し,行列ベクトル積を実現する高速アルゴリズムを提案する。
特徴グループ化アプローチに基づいて,カーネルリッジ回帰と事前条件付き共役勾配解法を選択する学習手法に,高速な行列ベクトル積を組み込む方法を示す。
論文 参考訳(メタデータ) (2021-11-19T10:29:39Z) - Fast Sketching of Polynomial Kernels of Polynomial Degree [61.83993156683605]
他のカーネルはしばしばテイラー級数展開を通じてカーネルによって近似されるので、カーネルは特に重要である。
スケッチの最近の技術は、カーネルの$q$という難解な程度に実行時間に依存することを減らしている。
我々は、この実行時間を大幅に改善する新しいスケッチを、先頭の注文項で$q$への依存を取り除くことで提供します。
論文 参考訳(メタデータ) (2021-08-21T02:14:55Z) - Kernel Continual Learning [117.79080100313722]
カーネル連続学習は、破滅的な忘れ事に取り組むための、シンプルだが効果的な連続学習の変種である。
エピソードメモリユニットは、カーネルリッジ回帰に基づいてタスク固有の分類器を学ぶために、各タスクのサンプルのサブセットを格納する。
タスク毎にデータ駆動カーネルを学ぶための変動ランダム機能。
論文 参考訳(メタデータ) (2021-07-12T22:09:30Z) - Kernel Identification Through Transformers [54.3795894579111]
カーネル選択はガウス過程(GP)モデルの性能決定において中心的な役割を果たす。
この研究は、高次元GP回帰モデルのためのカスタムカーネル関数を構築するという課題に対処する。
KITT: Kernel Identification through Transformersを提案する。
論文 参考訳(メタデータ) (2021-06-15T14:32:38Z) - A Semismooth-Newton's-Method-Based Linearization and Approximation
Approach for Kernel Support Vector Machines [1.177306187948666]
Support Vector Machines (SVM) は最も人気があり、最も優れた分類アルゴリズムである。
本稿では,カーネルSVMに対する準平滑なニュートン法に基づく線形化近似手法を提案する。
提案手法の利点は、計算コストが低く、収束速度が速いことである。
論文 参考訳(メタデータ) (2020-07-21T07:44:21Z) - MKLpy: a python-based framework for Multiple Kernel Learning [4.670305538969914]
マルチカーネル学習のためのピソンベースのフレームワークであるMKLpyを紹介する。
このライブラリは、分類タスクのための多重カーネル学習アルゴリズム、異なるデータ型のためのカーネル関数を計算するメカニズム、評価戦略を提供する。
論文 参考訳(メタデータ) (2020-07-20T10:10:13Z) - Kernel methods through the roof: handling billions of points efficiently [94.31450736250918]
カーネル法は、非パラメトリック学習に対するエレガントで原則化されたアプローチを提供するが、今のところ大規模な問題ではほとんど利用できない。
最近の進歩は、最適化、数値線形代数、ランダム射影など、多くのアルゴリズム的アイデアの利点を示している。
ここでは、これらの取り組みをさらに進めて、GPUハードウェアを最大限に活用する解決器を開発し、テストする。
論文 参考訳(メタデータ) (2020-06-18T08:16:25Z) - Learning Deep Kernels for Non-Parametric Two-Sample Tests [50.92621794426821]
2組のサンプルが同じ分布から引き出されるかどうかを判定するカーネルベースの2サンプルテストのクラスを提案する。
私たちのテストは、テストパワーを最大化するためにトレーニングされたディープニューラルネットワークによってパラメータ化されたカーネルから構築されます。
論文 参考訳(メタデータ) (2020-02-21T03:54:23Z) - On Coresets for Support Vector Machines [61.928187390362176]
coresetは、元のデータポイントの小さな、代表的なサブセットである。
我々は,本アルゴリズムを用いて,既製のSVMソルバをストリーミング,分散,動的データ設定に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-02-15T23:25:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。