論文の概要: HDC-MiniROCKET: Explicit Time Encoding in Time Series Classification
with Hyperdimensional Computing
- arxiv url: http://arxiv.org/abs/2202.08055v1
- Date: Wed, 16 Feb 2022 13:33:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-17 20:28:01.301156
- Title: HDC-MiniROCKET: Explicit Time Encoding in Time Series Classification
with Hyperdimensional Computing
- Title(参考訳): HDC-MiniROCKET:超次元計算を用いた時系列分類における明示的時間符号化
- Authors: Kenny Schlegel, Peer Neubert, Peter Protzel
- Abstract要約: MiniROCKETは時系列分類の最も優れた方法の1つである。
我々は、超次元計算(HDC)機構を用いて、より優れたグローバル時間符号化を提供するために、このアプローチを拡張した。
HDCの拡張は、推論の計算労力を増大させることなく、時間依存性の高いデータセットに対して、かなり優れた結果が得られる。
- 参考スコア(独自算出の注目度): 14.82489178857542
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Classification of time series data is an important task for many application
domains. One of the best existing methods for this task, in terms of accuracy
and computation time, is MiniROCKET. In this work, we extend this approach to
provide better global temporal encodings using hyperdimensional computing (HDC)
mechanisms. HDC (also known as Vector Symbolic Architectures, VSA) is a general
method to explicitly represent and process information in high-dimensional
vectors. It has previously been used successfully in combination with deep
neural networks and other signal processing algorithms. We argue that the
internal high-dimensional representation of MiniROCKET is well suited to be
complemented by the algebra of HDC. This leads to a more general formulation,
HDC-MiniROCKET, where the original algorithm is only a special case. We will
discuss and demonstrate that HDC-MiniROCKET can systematically overcome
catastrophic failures of MiniROCKET on simple synthetic datasets. These results
are confirmed by experiments on the 128 datasets from the UCR time series
classification benchmark. The extension with HDC can achieve considerably
better results on datasets with high temporal dependence without increasing the
computational effort for inference.
- Abstract(参考訳): 時系列データの分類は多くのアプリケーション領域にとって重要なタスクである。
このタスクのための最も優れた方法の1つは、正確性と計算時間の観点から、MiniROCKETである。
本研究では,この手法を拡張し,超次元計算(hdc)機構を用いて,より優れたグローバル時間エンコーディングを実現する。
HDC(Vector Symbolic Architectures、VSA)は、高次元ベクトルで情報を明示的に表現し処理するための一般的な手法である。
これまではディープニューラルネットワークや他の信号処理アルゴリズムと組み合わせてうまく利用されてきた。
我々は、MiniROCKETの内部の高次元表現はHDCの代数で補うのに適していると論じる。
これはより一般的な定式化であるhdc-minirocketにつながり、元のアルゴリズムは特別な場合のみである。
簡単な合成データセット上で,HDC-MiniROCKETがMiniROCKETの破滅的障害を系統的に克服できることを論じ,実証する。
これらの結果は、UCR時系列分類ベンチマークの128データセットで確認された。
HDCの拡張は、推論の計算労力を増大させることなく、時間依存性の高いデータセットに対して、かなり優れた結果が得られる。
関連論文リスト
- Classification of Raw MEG/EEG Data with Detach-Rocket Ensemble: An Improved ROCKET Algorithm for Multivariate Time Series Analysis [0.0]
本稿では,脳波やMEGなどの高次元データを扱うための新しいROCKETアルゴリズムであるDetach-Rocket Ensembleを提案する。
我々のアルゴリズムはプルーニングを利用してチャネルの重要度を総合的に推定し、より正確な精度とラベルの確率を与える。
Detach-Rocket Ensembleは、生の脳データに直接適用しても、解釈可能なチャネル関連性と競合する分類精度の両方を提供できることを示す。
論文 参考訳(メタデータ) (2024-08-05T18:24:09Z) - Holographic Global Convolutional Networks for Long-Range Prediction Tasks in Malware Detection [50.7263393517558]
ホログラフィック還元表現(HRR)の特性を利用したホログラフィックグローバル畳み込みネットワーク(HGConv)を導入する。
他のグローバルな畳み込み法とは異なり、我々の手法は複雑なカーネル計算や人工カーネル設計を必要としない。
提案手法は,Microsoft Malware Classification Challenge, Drebin, EMBERのマルウェアベンチマークで新たなSOTA結果を得た。
論文 参考訳(メタデータ) (2024-03-23T15:49:13Z) - CORE: Common Random Reconstruction for Distributed Optimization with
Provable Low Communication Complexity [110.50364486645852]
コミュニケーションの複雑さは、トレーニングをスピードアップし、マシン番号をスケールアップする上で、大きなボトルネックになっています。
本稿では,機械間で送信される情報を圧縮するための共通Om REOmを提案する。
論文 参考訳(メタデータ) (2023-09-23T08:45:27Z) - Streaming Encoding Algorithms for Scalable Hyperdimensional Computing [12.829102171258882]
超次元コンピューティング(Hyperdimensional Computing、HDC)は、計算神経科学を起源とするデータ表現と学習のパラダイムである。
そこで本研究では,ハッシュに基づくストリーミング符号化手法のファミリについて検討する。
我々は,これらの手法が既存の代替手段よりもはるかに効率的でありながら,学習アプリケーションの性能に匹敵する保証を享受できることを正式に示す。
論文 参考訳(メタデータ) (2022-09-20T17:25:14Z) - HDTorch: Accelerating Hyperdimensional Computing with GP-GPUs for Design
Space Exploration [4.783565770657063]
我々は、ハイパーベクタ操作の拡張を備えたPyTorchベースのオープンソースのHDCライブラリであるHDTorchを紹介する。
我々は4つのHDCベンチマークデータセットを精度、実行時間、メモリ消費の観点から分析する。
我々はCHB-MIT脳波てんかんデータベース全体のHDトレーニングと推測分析を行った。
論文 参考訳(メタデータ) (2022-06-09T19:46:08Z) - An Extension to Basis-Hypervectors for Learning from Circular Data in
Hyperdimensional Computing [62.997667081978825]
超次元計算(Hyperdimensional Computing、HDC)は、高次元ランダム空間の性質に基づく計算フレームワークである。
本稿では, 基本超ベクトル集合について検討し, 一般にHDCへの実践的貢献につながっている。
本稿では,HDCを用いた機械学習において,これまでに扱ったことのない重要な情報である円形データから学習する手法を提案する。
論文 参考訳(メタデータ) (2022-05-16T18:04:55Z) - SreaMRAK a Streaming Multi-Resolution Adaptive Kernel Algorithm [60.61943386819384]
既存のKRRの実装では、すべてのデータがメインメモリに格納される必要がある。
KRRのストリーミング版であるStreaMRAKを提案する。
本稿では,2つの合成問題と2重振り子の軌道予測について紹介する。
論文 参考訳(メタデータ) (2021-08-23T21:03:09Z) - Providing Meaningful Data Summarizations Using Examplar-based Clustering
in Industry 4.0 [67.80123919697971]
我々は,従来のCPUアルゴリズムと比較して,一精度で最大72倍,半精度で最大452倍の高速化を実現していることを示す。
提案アルゴリズムは射出成形プロセスから得られた実世界のデータに適用し, 得られたサマリーが, コスト削減と不良部品製造の削減のために, この特定のプロセスのステアリングにどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2021-05-25T15:55:14Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - MINIROCKET: A Very Fast (Almost) Deterministic Transform for Time Series
Classification [5.519586522442065]
ROCKETは、既存の手法の計算コストのごく一部で最先端の精度を達成する。
ROCKETを新しい方法であるMINIROCKETに改質し、より大きなデータセットで最大75倍高速にします。
UCRアーカイブから最先端の精度まで、すべての109データセットの分類器を10分以内でトレーニングし、テストすることができる。
論文 参考訳(メタデータ) (2020-12-16T08:24:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。