論文の概要: Recipe for Fast Large-scale SVM Training: Polishing, Parallelism, and
more RAM!
- arxiv url: http://arxiv.org/abs/2207.01016v1
- Date: Sun, 3 Jul 2022 11:51:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-05 15:43:01.550535
- Title: Recipe for Fast Large-scale SVM Training: Polishing, Parallelism, and
more RAM!
- Title(参考訳): 高速な大規模SVMトレーニングの準備 - ポーリング、並列処理、さらに多くのRAM!
- Authors: Tobias Glasmachers
- Abstract要約: サポートベクタマシン(SVM)は、機械学習ツールボックスの標準メソッドである。
しかし、非線形カーネルSVMは、長いトレーニング時間に費やして、高い精度の予測器を提供することが多い。
本研究では,2つのアプローチを組み合わせて,超高速なデュアルSVMソルバを設計する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Support vector machines (SVMs) are a standard method in the machine learning
toolbox, in particular for tabular data. Non-linear kernel SVMs often deliver
highly accurate predictors, however, at the cost of long training times. That
problem is aggravated by the exponential growth of data volumes over time. It
was tackled in the past mainly by two types of techniques: approximate solvers,
and parallel GPU implementations. In this work, we combine both approaches to
design an extremely fast dual SVM solver. We fully exploit the capabilities of
modern compute servers: many-core architectures, multiple high-end GPUs, and
large random access memory. On such a machine, we train a large-margin
classifier on the ImageNet data set in 24 minutes.
- Abstract(参考訳): サポートベクタマシン(SVM)は、特に表データに対して、機械学習ツールボックスの標準メソッドである。
しかし、非線形カーネルSVMは、長いトレーニング時間で非常に正確な予測器を提供することが多い。
この問題は、時間とともにデータボリュームが指数関数的に増加することで悪化する。
これまでは主に、近似解法と並列gpu実装という2つのタイプの技術によって取り組まれていた。
本研究では,両手法を組み合わせて超高速なデュアルSVMソルバを設計する。
マルチコアアーキテクチャ、複数のハイエンドGPU、大規模なランダムアクセスメモリなど、現代の計算サーバの機能を完全に活用しています。
このようなマシン上では、ImageNetデータセット上の大マージン分類器を24分でトレーニングする。
関連論文リスト
- vTensor: Flexible Virtual Tensor Management for Efficient LLM Serving [53.972175896814505]
大規模言語モデル(LLM)は様々なドメインで広く使われ、数百万の日次要求を処理する。
大規模言語モデル(LLM)は様々なドメインで広く使われ、数百万の日次要求を処理する。
論文 参考訳(メタデータ) (2024-07-22T14:37:58Z) - Support Vector Machine Implementation on MPI-CUDA and Tensorflow
Framework [0.0]
Support Vector Machine (SVM)アルゴリズムは、複雑な二次プログラミング(QP)最適化問題を解決するために高い計算コストを必要とする。
並列マルチアーキテクチャは、マルチコアCPUと高度にスケーラブルなGPUの両方で利用できる。
本稿では,異なる並列アーキテクチャフレームワーク上でSVMアルゴリズムを実装した比較研究を行う。
論文 参考訳(メタデータ) (2023-11-25T02:52:37Z) - PARTIME: Scalable and Parallel Processing Over Time with Deep Neural
Networks [68.96484488899901]
PartIMEは、データが継続的にストリーミングされるたびにニューラルネットワークを高速化するように設計されたライブラリです。
PartIMEは、ストリームから利用可能になった時点で、各データサンプルの処理を開始する。
オンライン学習において、PartialIMEと古典的な非並列ニューラル計算を経験的に比較するために実験が行われる。
論文 参考訳(メタデータ) (2022-10-17T14:49:14Z) - Batch-efficient EigenDecomposition for Small and Medium Matrices [65.67315418971688]
EigenDecomposition (ED)は多くのコンピュータビジョンアルゴリズムとアプリケーションの中心にある。
本稿では,コンピュータビジョンの応用シナリオに特化したQRベースのED手法を提案する。
論文 参考訳(メタデータ) (2022-07-09T09:14:12Z) - NumS: Scalable Array Programming for the Cloud [82.827921577004]
タスクベース分散システム上でNumPyのような表現を最適化する配列プログラミングライブラリであるNumSを提案する。
これはLoad Simulated Hierarchical Scheduling (LSHS)と呼ばれる新しいスケジューラによって実現される。
LSHSは、ネットワーク負荷を2倍減らし、メモリを4倍減らし、ロジスティック回帰問題において実行時間を10倍減らし、Rayの性能を向上させる。
論文 参考訳(メタデータ) (2022-06-28T20:13:40Z) - PLSSVM: A (multi-)GPGPU-accelerated Least Squares Support Vector Machine [68.8204255655161]
Support Vector Machines (SVM) は機械学習で広く使われている。
しかし、現代的で最適化された実装でさえ、最先端ハードウェア上の大きな非自明な高密度データセットにはうまくスケールしない。
PLSSVMはLVMのドロップイン代替として使用できる。
論文 参考訳(メタデータ) (2022-02-25T13:24:23Z) - Giga-scale Kernel Matrix Vector Multiplication on GPU [9.106412307976067]
Kernel matrix vector multiplication (KMVM) は、カーネル文学から信号処理まで、機械学習と科学計算におけるユビキタスな演算である。
KMVMのスケーリング問題に対処するために,Faster-Fast and Free Memory Method(textF3$M)という新しい近似手法を提案する。
我々は、$textF3$Mで10億ポイントのKMVMを1分以内のハイエンドGPUで計算できることを示し、既存のCPU手法と比較して大幅に高速化された。
論文 参考訳(メタデータ) (2022-02-02T15:28:15Z) - AML-SVM: Adaptive Multilevel Learning with Support Vector Machines [0.0]
本稿では非線形SVMのための適応型多段階学習フレームワークを提案する。
改良プロセス全体の分類品質を改善し、マルチスレッド並列処理を活用して性能を向上する。
論文 参考訳(メタデータ) (2020-11-05T00:17:02Z) - GPU-Accelerated Primal Learning for Extremely Fast Large-Scale
Classification [10.66048003460524]
ロジスティック回帰や線形サポートベクターマシン(SVM)分類などのL2正規化原始問題を解く最も効率的な方法の1つは、広く使われている信頼領域ニュートンアルゴリズムであるTRONである。
我々は、GPU最適化の法則を用いて、異なる損失と特徴表現に対するTRONトレーニング時間を劇的に短縮できることを示した。
論文 参考訳(メタデータ) (2020-08-08T03:40:27Z) - Kernel methods through the roof: handling billions of points efficiently [94.31450736250918]
カーネル法は、非パラメトリック学習に対するエレガントで原則化されたアプローチを提供するが、今のところ大規模な問題ではほとんど利用できない。
最近の進歩は、最適化、数値線形代数、ランダム射影など、多くのアルゴリズム的アイデアの利点を示している。
ここでは、これらの取り組みをさらに進めて、GPUハードウェアを最大限に活用する解決器を開発し、テストする。
論文 参考訳(メタデータ) (2020-06-18T08:16:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。