論文の概要: CUROCKET: Optimizing ROCKET for GPU
- arxiv url: http://arxiv.org/abs/2601.17091v1
- Date: Fri, 23 Jan 2026 11:21:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.223975
- Title: CUROCKET: Optimizing ROCKET for GPU
- Title(参考訳): CUROCKET:GPUのための最適化ROCKET
- Authors: Ole Stüven, Keno Moenck, Thorsten Schüppstuhl,
- Abstract要約: ROCKET (RandOm Convolutional KErnel Transform) は時系列分類のための特徴抽出アルゴリズムである。
本稿では,GPU上で ROCKET を効率的に実行し,CPU上で ROCKET よりも最大11倍高い計算効率を実現するアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: ROCKET (RandOm Convolutional KErnel Transform) is a feature extraction algorithm created for Time Series Classification (TSC), published in 2019. It applies convolution with randomly generated kernels on a time series, producing features that can be used to train a linear classifier or regressor like Ridge. At the time of publication, ROCKET was on par with the best state-of-the-art algorithms for TSC in terms of accuracy while being significantly less computationally expensive, making ROCKET a compelling algorithm for TSC. This also led to several subsequent versions, further improving accuracy and computational efficiency. The currently available ROCKET implementations are mostly bound to execution on CPU. However, convolution is a task that can be highly parallelized and is therefore suited to be executed on GPU, which speeds up the computation significantly. A key difficulty arises from the inhomogeneous kernels ROCKET uses, making standard methods for applying convolution on GPU inefficient. In this work, we propose an algorithm that is able to efficiently perform ROCKET on GPU and achieves up to 11 times higher computational efficiency per watt than ROCKET on CPU. The code for CUROCKET is available in this repository https://github.com/oleeven/CUROCKET on github.
- Abstract(参考訳): ROCKET(RandOm Convolutional KErnel Transform)は、2019年に発表された時系列分類(TSC)のための特徴抽出アルゴリズムである。
時系列上でランダムに生成されたカーネルと畳み込みを適用し、線形分類器やリッジのような回帰器の訓練に使用できる特徴を生成する。
出版当時、ROCKETはTSCの最先端のアルゴリズムに匹敵する精度を保ちながら、計算コストを大幅に削減し、ROCKETはTSCの魅力的なアルゴリズムとなった。
その後もいくつかのバージョンが作成され、精度と計算効率が向上した。
現在利用可能なROCKET実装は、主にCPU上での実行に縛られている。
しかし、畳み込みは高い並列化が可能なタスクであるため、GPU上での実行に適しているため、計算が大幅に高速化される。
ROCKETが使用する不均一なカーネルから重要な問題が発生し、GPU非効率に畳み込みを適用するための標準的な方法となっている。
本稿では,GPU上でのROCKETを効率よく実行し,CPU上でのROCKETよりも最大11倍高い計算効率を実現するアルゴリズムを提案する。
CUROCKETのコードは、githubのhttps://github.com/oleeven/CUROCKETにある。
関連論文リスト
- HIT-ROCKET: Hadamard-vector Inner-product Transformer for ROCKET [0.039089069256361735]
時系列分類は、コミュニケーション、情報対策、金融、医療における幅広い応用価値を持っている。
最先端のSOTA(State-of-the-art)手法は、長いパラメータチューニングとトレーニングサイクルを組み合わせた高い計算複雑性を示す。
本研究では,アダマール行列の列ベクトルあるいは行ベクトルを,様々な大きさの長大な畳み込みカーネルとして利用した,アダマール畳み込み変換に基づく特徴抽出手法を提案する。
論文 参考訳(メタデータ) (2025-11-03T13:39:40Z) - A User's Guide to $\texttt{KSig}$: GPU-Accelerated Computation of the Signature Kernel [12.111848705677138]
シグネチャカーネルは、シーケンシャルおよびテンポラルデータのための正定カーネルである。
この章では、署名カーネルを演算するためのGPUアクセラレーションアルゴリズムを実装した、$textttKSig$、$textttScikit-Learn$互換Pythonパッケージについて短い紹介を行う。
論文 参考訳(メタデータ) (2025-01-13T09:11:13Z) - High Performance Computing Applied to Logistic Regression: A CPU and GPU
Implementation Comparison [0.0]
汎用GPUによるロジスティック回帰(LR)の並列バージョンを提案する。
我々の実装は、X. Zouらによって提案された並列なグラディエントDescent Logistic Regressionアルゴリズムの直接変換である。
本手法は,画像認識,スパム検出,不正検出などのリアルタイム予測に特に有用である。
論文 参考訳(メタデータ) (2023-08-19T14:49:37Z) - Efficient Convex Algorithms for Universal Kernel Learning [46.573275307034336]
カーネルの理想的な集合: 線形パラメータ化(トラクタビリティ)を認める; すべてのカーネルの集合に密着する(正確性)。
従来のカーネル最適化アルゴリズムは分類に限られており、計算に複雑なセミデフィニティプログラミング(SDP)アルゴリズムに依存していた。
本稿では,従来のSDP手法と比較して計算量を大幅に削減するSVD-QCQPQPアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-15T04:57:37Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - RSC: Accelerating Graph Neural Networks Training via Randomized Sparse
Computations [56.59168541623729]
トレーニンググラフニューラルネットワーク(GNN)は、疎グラフベースの操作がハードウェアによって加速することが難しいため、時間を要する。
我々は,サンプリングに基づく近似による時間的複雑性を低減するために,計算精度のトレードオフを検討する。
本稿では,GNNを近似演算でトレーニングする可能性を初めて示すランダム化スパース計算を提案する。
論文 参考訳(メタデータ) (2022-10-19T17:25:33Z) - Adaptive Elastic Training for Sparse Deep Learning on Heterogeneous
Multi-GPU Servers [65.60007071024629]
本稿では,Adaptive SGDが4つの最先端ソリューションよりも精度が高いことを示す。
本稿では,Adaptive SGDが時間と精度で4つの最先端ソリューションより優れていることを示す。
論文 参考訳(メタデータ) (2021-10-13T20:58:15Z) - Kernel methods through the roof: handling billions of points efficiently [94.31450736250918]
カーネル法は、非パラメトリック学習に対するエレガントで原則化されたアプローチを提供するが、今のところ大規模な問題ではほとんど利用できない。
最近の進歩は、最適化、数値線形代数、ランダム射影など、多くのアルゴリズム的アイデアの利点を示している。
ここでは、これらの取り組みをさらに進めて、GPUハードウェアを最大限に活用する解決器を開発し、テストする。
論文 参考訳(メタデータ) (2020-06-18T08:16:25Z) - Heterogeneous CPU+GPU Stochastic Gradient Descent Algorithms [1.3249453757295084]
ヘテロジニアスCPU+GPUアーキテクチャの深層学習のためのトレーニングアルゴリズムについて検討する。
私たちの2倍の目標 -- 収束率と資源利用を同時に最大化する -- は、この問題を難しくします。
これらのアルゴリズムの実装は,複数の実データセットよりも高速な収束と資源利用の両立を実現していることを示す。
論文 参考訳(メタデータ) (2020-04-19T05:21:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。