論文の概要: Faster Algorithms for Structured Linear and Kernel Support Vector Machines
- arxiv url: http://arxiv.org/abs/2307.07735v3
- Date: Tue, 11 Feb 2025 21:37:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-13 13:46:41.219909
- Title: Faster Algorithms for Structured Linear and Kernel Support Vector Machines
- Title(参考訳): 構造線形およびカーネル支援ベクトルマシンのための高速アルゴリズム
- Authors: Yuzhou Gu, Zhao Song, Lichen Zhang,
- Abstract要約: 二次的目的が低ランクの分解を許容する場合に、2次プログラムを解くための最初のニア線形時間アルゴリズムを設計する。
正方形のデータセット半径が少なくとも$Omega(log2 n)$の場合、$Omega(n2-o(1))$ timeが要求される。
- 参考スコア(独自算出の注目度): 9.62296035593105
- License:
- Abstract: Quadratic programming is a ubiquitous prototype in convex programming. Many machine learning problems can be formulated as quadratic programming, including the famous Support Vector Machines (SVMs). Linear and kernel SVMs have been among the most popular models in machine learning over the past three decades, prior to the deep learning era. Generally, a quadratic program has an input size of $\Theta(n^2)$, where $n$ is the number of variables. Assuming the Strong Exponential Time Hypothesis ($\textsf{SETH}$), it is known that no $O(n^{2-o(1)})$ time algorithm exists when the quadratic objective matrix is positive semidefinite (Backurs, Indyk, and Schmidt, NeurIPS'17). However, problems such as SVMs usually admit much smaller input sizes: one is given $n$ data points, each of dimension $d$, and $d$ is oftentimes much smaller than $n$. Furthermore, the SVM program has only $O(1)$ equality linear constraints. This suggests that faster algorithms are feasible, provided the program exhibits certain structures. In this work, we design the first nearly-linear time algorithm for solving quadratic programs whenever the quadratic objective admits a low-rank factorization, and the number of linear constraints is small. Consequently, we obtain results for SVMs: * For linear SVM when the input data is $d$-dimensional, our algorithm runs in time $\widetilde O(nd^{(\omega+1)/2}\log(1/\epsilon))$ where $\omega\approx 2.37$ is the fast matrix multiplication exponent; * For Gaussian kernel SVM, when the data dimension $d = {\color{black}O(\log n)}$ and the squared dataset radius is sub-logarithmic in $n$, our algorithm runs in time $O(n^{1+o(1)}\log(1/\epsilon))$. We also prove that when the squared dataset radius is at least $\Omega(\log^2 n)$, then $\Omega(n^{2-o(1)})$ time is required. This improves upon the prior best lower bound in both the dimension $d$ and the squared dataset radius.
- Abstract(参考訳): 擬似プログラミングは凸プログラミングにおけるユビキタスなプロトタイプである。
多くの機械学習問題は、有名なSVM(Support Vector Machines)など、二次プログラミングとして定式化することができる。
線形およびカーネルSVMは、ディープラーニング時代以前の過去30年間、機械学習で最も人気のあるモデルである。
一般に、二次プログラムの入力サイズは$\Theta(n^2)$で、$n$は変数の数である。
強い指数時間仮説(英語版)(\textsf{SETH}$)を仮定すると、二次目的行列が正半定値であるとき、O(n^{2-o(1)})$時間アルゴリズムは存在しないことが知られている(Backurs, Indyk, Schmidt, NeurIPS'17)。
しかし、SVMのような問題は通常、より小さな入力サイズを許容する: 1つは$n$のデータポイントを与えられ、各次元は$d$、$d$は$n$よりもはるかに小さい。
さらに、SVMプログラムは$O(1)$等値線形制約しか持たない。
これは、プログラムが特定の構造を示す場合、より高速なアルゴリズムが実現可能であることを示唆している。
本研究では,2次的目的が低ランクの分解を許容し,線形制約の数が少ない場合に2次的プログラムを解くための,最初のニア線形時間アルゴリズムを設計する。
入力データが$d$-dimensionalであるような線形SVMの場合、我々のアルゴリズムは時間$\widetilde O(nd^{(\omega+1)/2}\log(1/\epsilon))$ where $\omega\approx 2.37$ is the fast matrix multiplication exponent; * ガウスカーネルSVMの場合、データ次元$d = {\color{black}O(\log n)}$と平方データセット半径が$n$の対数である場合、我々のアルゴリズムは時間$O(n^{1+o(1)}\log(1/\epsilon)$で実行される。
また、二乗データセット半径が少なくとも$\Omega(\log^2 n)$の場合、$\Omega(n^{2-o(1)})$ timeが必要であることも証明した。
これにより、次元$d$と正方形データセット半径の両方において、前の最下界が改善される。
関連論文リスト
- Optimal Sketching for Residual Error Estimation for Matrix and Vector Norms [50.15964512954274]
線形スケッチを用いた行列とベクトルノルムの残差誤差推定問題について検討する。
これは、前作とほぼ同じスケッチサイズと精度で、経験的にかなり有利であることを示す。
また、スパースリカバリ問題に対して$Omega(k2/pn1-2/p)$低いバウンダリを示し、これは$mathrmpoly(log n)$ factorまで厳密である。
論文 参考訳(メタデータ) (2024-08-16T02:33:07Z) - Solving Dense Linear Systems Faster Than via Preconditioning [1.8854491183340518]
我々のアルゴリズムは$tilde O(n2)$ if $k=O(n0.729)$であることを示す。
特に、我々のアルゴリズムは$tilde O(n2)$ if $k=O(n0.729)$である。
主アルゴリズムはランダム化ブロック座標降下法とみなすことができる。
論文 参考訳(メタデータ) (2023-12-14T12:53:34Z) - Fast $(1+\varepsilon)$-Approximation Algorithms for Binary Matrix
Factorization [54.29685789885059]
本稿では, 2次行列分解(BMF)問題に対する効率的な$(1+varepsilon)$-approximationアルゴリズムを提案する。
目標は、低ランク因子の積として$mathbfA$を近似することである。
我々の手法はBMF問題の他の一般的な変種に一般化する。
論文 参考訳(メタデータ) (2023-06-02T18:55:27Z) - Randomized and Deterministic Attention Sparsification Algorithms for
Over-parameterized Feature Dimension [18.57735939471469]
我々は注意問題のスパシフィケーションを考慮する。
超大規模特徴量の場合、文の長さをほぼ線形に縮めることができる。
論文 参考訳(メタデータ) (2023-04-10T05:52:38Z) - Sketching Algorithms and Lower Bounds for Ridge Regression [65.0720777731368]
リッジ回帰問題に対する1+varepsilon$近似解を計算するスケッチベース反復アルゴリズムを提案する。
また,このアルゴリズムがカーネルリッジ回帰の高速化に有効であることを示す。
論文 参考訳(メタデータ) (2022-04-13T22:18:47Z) - Distribution Compression in Near-linear Time [27.18971095426405]
シンニングアルゴリズムを高速化するシンプルなメタプロデューサであるCompress++を紹介する。
$sqrtn$ポイントを$mathcalO(sqrtlog n/n)$統合エラーで提供し、Monte-Carlo の最大誤差を最大化します。
論文 参考訳(メタデータ) (2021-11-15T17:42:57Z) - The Fine-Grained Hardness of Sparse Linear Regression [12.83354999540079]
この問題に対して、より優れたブルートフォースアルゴリズムは存在しないことを示す。
また,予測誤差が測定された場合,より優れたブラトフォースアルゴリズムが不可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T14:19:43Z) - Learning a Latent Simplex in Input-Sparsity Time [58.30321592603066]
我々は、$AinmathbbRdtimes n$へのアクセスを考えると、潜入$k$-vertex simplex $KsubsetmathbbRdtimes n$を学習する問題を考える。
実行時間における$k$への依存は、トップ$k$特異値の質量が$a$であるという自然な仮定から不要であることを示す。
論文 参考訳(メタデータ) (2021-05-17T16:40:48Z) - Streaming Complexity of SVMs [110.63976030971106]
本稿では,ストリーミングモデルにおけるバイアス正規化SVM問題を解く際の空間複雑性について検討する。
両方の問題に対して、$frac1lambdaepsilon$の次元に対して、$frac1lambdaepsilon$よりも空間的に小さいストリーミングアルゴリズムを得ることができることを示す。
論文 参考訳(メタデータ) (2020-07-07T17:10:00Z) - Maximizing Determinants under Matroid Constraints [69.25768526213689]
我々は、$det(sum_i in Sv_i v_i v_itop)$が最大になるような基底を$S$$$$M$とする問題を研究する。
この問題は、実験的なデザイン、商品の公平な割り当て、ネットワーク設計、機械学習など、さまざまな分野に現れている。
論文 参考訳(メタデータ) (2020-04-16T19:16:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。