論文の概要: A quantum extension of SVM-perf for training nonlinear SVMs in almost
linear time
- arxiv url: http://arxiv.org/abs/2006.10299v3
- Date: Fri, 9 Oct 2020 11:19:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 14:28:10.532702
- Title: A quantum extension of SVM-perf for training nonlinear SVMs in almost
linear time
- Title(参考訳): 非線形svmの近似線形時間トレーニングのためのsvm-perfの量子拡張
- Authors: Jonathan Allcock and Chang-Yu Hsieh
- Abstract要約: 特徴空間学習のための非線形サポートベクトルマシン(SVM)を訓練するための量子アルゴリズムを提案する。
Joachimsの古典的なSVM-perfアルゴリズムに基づいて、我々のアルゴリズムはトレーニング例の数で線形にスケールするランニングタイムを持つ。
- 参考スコア(独自算出の注目度): 0.2855485723554975
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose a quantum algorithm for training nonlinear support vector machines
(SVM) for feature space learning where classical input data is encoded in the
amplitudes of quantum states. Based on the classical SVM-perf algorithm of
Joachims, our algorithm has a running time which scales linearly in the number
of training examples $m$ (up to polylogarithmic factors) and applies to the
standard soft-margin $\ell_1$-SVM model. In contrast, while classical SVM-perf
has demonstrated impressive performance on both linear and nonlinear SVMs, its
efficiency is guaranteed only in certain cases: it achieves linear $m$ scaling
only for linear SVMs, where classification is performed in the original input
data space, or for the special cases of low-rank or shift-invariant kernels.
Similarly, previously proposed quantum algorithms either have super-linear
scaling in $m$, or else apply to different SVM models such as the hard-margin
or least squares $\ell_2$-SVM which lack certain desirable properties of the
soft-margin $\ell_1$-SVM model. We classically simulate our algorithm and give
evidence that it can perform well in practice, and not only for asymptotically
large data sets.
- Abstract(参考訳): 古典入力データを量子状態の振幅にエンコードする特徴空間学習のための非線形サポートベクトルマシン(svm)を学習するための量子アルゴリズムを提案する。
Joachimsの古典的なSVM-perfアルゴリズムに基づいて、我々のアルゴリズムは、トレーニングの例数$m$(多変数因子まで)を線形にスケールし、標準ソフトマージン$\ell_1$-SVMモデルに適用するランニングタイムを持つ。
対照的に、古典的なSVM-perfは線形SVMと非線形SVMの両方で顕著な性能を示してきたが、その効率は、線形SVMに対してのみ線形$m$のスケーリングを実現している。
同様に、以前提案された量子アルゴリズムは、m$の超線形スケーリングを持つか、ソフトマージン$\ell_1$-svmモデルの望ましい特性を欠くハードマージンや最小二乗$\ell_2$-svmのような異なるsvmモデルに適用する。
我々は古典的にアルゴリズムをシミュレートし、漸近的に大規模なデータセットに限らず、実際にうまく動作することを示す。
関連論文リスト
- $p$SVM: Soft-margin SVMs with $p$-norm Hinge Loss [0.0]
ヒンジ損失に基づくサポートベクトルマシン(SVM)は、様々なバイナリ分類タスクに広く議論され、適用されてきた。
本稿では,$p$SVMの特性,性能,トレーニングアルゴリズムについて検討する。
論文 参考訳(メタデータ) (2024-08-19T11:30:00Z) - Local Binary and Multiclass SVMs Trained on a Quantum Annealer [0.8399688944263844]
近年,動作量子アンニールの出現に伴い,量子トレーニングと古典的実行を特徴とするハイブリッドSVMモデルが導入されている。
これらのモデルは、古典的なモデルに匹敵する性能を示した。
しかし、現在の量子アニールの接続が制限されているため、トレーニングセットサイズに制限がある。
論文 参考訳(メタデータ) (2024-03-13T14:37:00Z) - Sparse Learning and Class Probability Estimation with Weighted Support
Vector Machines [1.3597551064547502]
重み付きサポートベクトルマシン (wSVM) は、高い精度で様々な問題に対するクラス確率と分類を頑健に予測する上で、優れた値を示している。
スパース学習問題に対する精度の高い確率推定と自動変数選択を組み込んだ新しいwSVMフレームワークを提案する。
提案したwSVMsベースのスパース学習手法は幅広い応用があり、アンサンブル学習によりさらに$K$クラスに拡張できる。
論文 参考訳(メタデータ) (2023-12-17T06:12:33Z) - Transformers as Support Vector Machines [54.642793677472724]
自己アテンションの最適化幾何と厳密なSVM問題との間には,形式的等価性を確立する。
勾配降下に最適化された1層変圧器の暗黙バイアスを特徴付ける。
これらの発見は、最適なトークンを分離し選択するSVMの階層としてのトランスフォーマーの解釈を刺激していると信じている。
論文 参考訳(メタデータ) (2023-08-31T17:57:50Z) - Regularization and Variance-Weighted Regression Achieves Minimax
Optimality in Linear MDPs: Theory and Practice [79.48432795639403]
ミラー降下値反復(MDVI)は、KL(Kulback-Leibler)とRL(Entropy-regularized reinforcement learning)の抽象化である。
MDVIを線形関数近似を用いて研究し,$varepsilon$-optimal policyを同定するために必要なサンプル複雑性について検討した。
我々は,無限水平線形MDPに対して,最小限のサンプル複雑性を実現する最初の理論的アルゴリズムである分散重み付き最小二乗法MDVIを提案する。
論文 参考訳(メタデータ) (2023-05-22T16:13:05Z) - High-Dimensional Sparse Bayesian Learning without Covariance Matrices [66.60078365202867]
共分散行列の明示的な構成を避ける新しい推論手法を提案する。
本手法では, 数値線形代数と共役勾配アルゴリズムの対角線推定結果とを結合する。
いくつかのシミュレーションにおいて,本手法は計算時間とメモリにおける既存手法よりも拡張性が高い。
論文 参考訳(メタデータ) (2022-02-25T16:35:26Z) - LQF: Linear Quadratic Fine-Tuning [114.3840147070712]
本稿では,非線形微調整に匹敵する性能を実現する事前学習モデルの線形化手法を提案する。
LQFはアーキテクチャの単純な変更、損失関数、そして一般的に分類に使用される最適化で構成されている。
論文 参考訳(メタデータ) (2020-12-21T06:40:20Z) - A Semismooth-Newton's-Method-Based Linearization and Approximation
Approach for Kernel Support Vector Machines [1.177306187948666]
Support Vector Machines (SVM) は最も人気があり、最も優れた分類アルゴリズムである。
本稿では,カーネルSVMに対する準平滑なニュートン法に基づく線形化近似手法を提案する。
提案手法の利点は、計算コストが低く、収束速度が速いことである。
論文 参考訳(メタデータ) (2020-07-21T07:44:21Z) - Unified SVM Algorithm Based on LS-DC Loss [0.0]
異なるSVMモデルをトレーニングできるアルゴリズムを提案する。
UniSVMはクローズドフォームのソリューションであるため、既存のすべてのアルゴリズムに対して圧倒的な優位性がある。
実験によると、UniSVMはトレーニング時間の短縮で同等のパフォーマンスを達成できる。
論文 参考訳(メタデータ) (2020-06-16T12:40:06Z) - Learning nonlinear dynamical systems from a single trajectory [102.60042167341956]
我々は、$x_t+1=sigma(Thetastarx_t)+varepsilon_t$という形の非線形力学系を学ぶアルゴリズムを導入する。
最適なサンプル複雑性と線形ランニング時間を持つ単一軌道から重み行列$Thetastar$を復元するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-04-30T10:42:48Z) - On Coresets for Support Vector Machines [61.928187390362176]
coresetは、元のデータポイントの小さな、代表的なサブセットである。
我々は,本アルゴリズムを用いて,既製のSVMソルバをストリーミング,分散,動的データ設定に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-02-15T23:25:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。