論文の概要: S-Rocket: Selective Random Convolution Kernels for Time Series
Classification
- arxiv url: http://arxiv.org/abs/2203.03445v1
- Date: Mon, 7 Mar 2022 15:02:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 14:30:01.585202
- Title: S-Rocket: Selective Random Convolution Kernels for Time Series
Classification
- Title(参考訳): S-Rocket: 時系列分類のための選択ランダム畳み込みカーネル
- Authors: Hojjat Salehinejad, Yang Wang, Yuanhao Yu, Tang Jin, Shahrokh Valaee
- Abstract要約: ランダム畳み込みカーネル変換(Rocket)は、時系列特徴抽出のための高速で効率的で斬新なアプローチである。
計算複雑性を減らし、Rocketの推論を加速するためには、最も重要なカーネルを選択し、冗長で重要でないカーネルを刈り取る必要がある。
最重要なカーネルを選択するために、集団ベースのアプローチが提案されている。
- 参考スコア(独自算出の注目度): 36.9596657353794
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Random convolution kernel transform (Rocket) is a fast, efficient, and novel
approach for time series feature extraction, using a large number of randomly
initialized convolution kernels, and classification of the represented features
with a linear classifier, without training the kernels. Since these kernels are
generated randomly, a portion of these kernels may not positively contribute in
performance of the model. Hence, selection of the most important kernels and
pruning the redundant and less important ones is necessary to reduce
computational complexity and accelerate inference of Rocket. Selection of these
kernels is a combinatorial optimization problem. In this paper, the kernels
selection process is modeled as an optimization problem and a population-based
approach is proposed for selecting the most important kernels. This approach is
evaluated on the standard time series datasets and the results show that on
average it can achieve a similar performance to the original models by pruning
more than 60% of kernels. In some cases, it can achieve a similar performance
using only 1% of the kernels.
- Abstract(参考訳): ランダム畳み込みカーネル変換(Rocket)は、多数のランダム初期化畳み込みカーネルを用いて、カーネルを訓練することなく、表現された特徴を線形分類器で分類する、時系列特徴抽出のための高速で効率的で斬新なアプローチである。
これらのカーネルはランダムに生成されるため、これらのカーネルの一部がモデルの性能に積極的に寄与することはない。
したがって、最も重要なカーネルの選択と冗長で重要でないカーネルのプルーニングは、計算の複雑さを減少させ、ロケットの推理を加速するために必要である。
これらのカーネルの選択は組合せ最適化の問題である。
本稿では,カーネル選択過程を最適化問題としてモデル化し,最も重要なカーネルを選択するための集団ベースアプローチを提案する。
このアプローチは標準時系列データセットに基づいて評価され、その結果、カーネルの60%以上を刈り取ることで、平均すると元のモデルと同じような性能が得られることが示された。
場合によっては、カーネルのわずか1%で同様のパフォーマンスを達成できる。
関連論文リスト
- Optimal Kernel Choice for Score Function-based Causal Discovery [92.65034439889872]
本稿では,データに最も適合する最適なカーネルを自動的に選択する,一般化スコア関数内のカーネル選択手法を提案する。
合成データと実世界のベンチマークの両方で実験を行い,提案手法がカーネル選択法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-14T09:32:20Z) - POCKET: Pruning Random Convolution Kernels for Time Series Classification from a Feature Selection Perspective [8.359327841946852]
時系列分類モデルであるPOCKETは、冗長カーネルを効率的にプルークするように設計されている。
POCKETは、精度を大幅に低下させることなく最大60%のカーネルを出力し、そのカーネルよりも11$times$高速に動作させる。
多様な時系列データセットによる実験結果から、POCKETは精度を著しく低下させることなく最大60%のカーネルを産み出し、それよりも11$times$高速に動作していることがわかった。
論文 参考訳(メタデータ) (2023-09-15T16:03:23Z) - Structural Kernel Search via Bayesian Optimization and Symbolical
Optimal Transport [5.1672267755831705]
ガウスのプロセスでは、カーネルの選択は重要なタスクであり、しばしば専門家が手動で行う。
本稿では,カーネル空間を包含する新しい効率的な探索法を提案する。
論文 参考訳(メタデータ) (2022-10-21T09:30:21Z) - Variational Autoencoder Kernel Interpretation and Selection for
Classification [59.30734371401315]
本研究では,変分オートエンコーダの畳み込みエンコーダによって生成された特徴に基づく確率的分類器のカーネル選択手法を提案する。
提案した実装では、各カーネルに対して各分散が生成されるため、各潜伏変数を最終エンコーダの畳み込み層の単一カーネルに関連付けられた分布からサンプリングした。
サンプル化された潜伏変数で関連する機能を選択することで、カーネルの選択を実行し、非形式的機能とカーネルをフィルタリングすることができる。
論文 参考訳(メタデータ) (2022-09-10T17:22:53Z) - Kernel Continual Learning [117.79080100313722]
カーネル連続学習は、破滅的な忘れ事に取り組むための、シンプルだが効果的な連続学習の変種である。
エピソードメモリユニットは、カーネルリッジ回帰に基づいてタスク固有の分類器を学ぶために、各タスクのサンプルのサブセットを格納する。
タスク毎にデータ駆動カーネルを学ぶための変動ランダム機能。
論文 参考訳(メタデータ) (2021-07-12T22:09:30Z) - Taming Nonconvexity in Kernel Feature Selection---Favorable Properties
of the Laplace Kernel [77.73399781313893]
カーネルベースの特徴選択の客観的機能を確立することが課題である。
非言語最適化に利用可能な勾配に基づくアルゴリズムは、局所ミニマへの収束を保証できるだけである。
論文 参考訳(メタデータ) (2021-06-17T11:05:48Z) - Kernel Identification Through Transformers [54.3795894579111]
カーネル選択はガウス過程(GP)モデルの性能決定において中心的な役割を果たす。
この研究は、高次元GP回帰モデルのためのカスタムカーネル関数を構築するという課題に対処する。
KITT: Kernel Identification through Transformersを提案する。
論文 参考訳(メタデータ) (2021-06-15T14:32:38Z) - Learning Compositional Sparse Gaussian Processes with a Shrinkage Prior [26.52863547394537]
本稿では,カーネル選択のスパーシティをホースシュープリアーで処理することにより,カーネル構成を学習するための新しい確率論的アルゴリズムを提案する。
本モデルは,計算時間を大幅に削減した時系列特性をキャプチャし,実世界のデータセット上での競合回帰性能を有する。
論文 参考訳(メタデータ) (2020-12-21T13:41:15Z) - Scaling up Kernel Ridge Regression via Locality Sensitive Hashing [6.704115928005158]
ランダムな双対関数の重み付け版を導入し、対応するカーネル関数が滑らかなガウス過程を生成することを示す。
重み付けされたランダムなバイナリ化特徴は、対応するカーネル行列にスペクトル近似を与え、カーネルリッジ回帰の効率的なアルゴリズムをもたらすことを示す。
論文 参考訳(メタデータ) (2020-03-21T21:41:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。