論文の概要: HYDRA: Competing convolutional kernels for fast and accurate time series
classification
- arxiv url: http://arxiv.org/abs/2203.13652v1
- Date: Fri, 25 Mar 2022 13:58:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-28 14:11:42.779465
- Title: HYDRA: Competing convolutional kernels for fast and accurate time series
classification
- Title(参考訳): HYDRA:高速かつ正確な時系列分類のための畳み込みカーネルの競合
- Authors: Angus Dempster, Daniel F. Schmidt, Geoffrey I. Webb
- Abstract要約: 辞書法に類似したモデルとROCKETに類似したモデルの間を次々に移動可能であることを示す。
本稿では、競合する畳み込みカーネルを用いた時系列分類のための、単純で高速で正確な辞書法HYDRAを提案する。
- 参考スコア(独自算出の注目度): 9.049629596156473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We demonstrate a simple connection between dictionary methods for time series
classification, which involve extracting and counting symbolic patterns in time
series, and methods based on transforming input time series using convolutional
kernels, namely ROCKET and its variants. We show that by adjusting a single
hyperparameter it is possible to move by degrees between models resembling
dictionary methods and models resembling ROCKET. We present HYDRA, a simple,
fast, and accurate dictionary method for time series classification using
competing convolutional kernels, combining key aspects of both ROCKET and
conventional dictionary methods. HYDRA is faster and more accurate than the
most accurate existing dictionary methods, and can be combined with ROCKET and
its variants to further improve the accuracy of these methods.
- Abstract(参考訳): 本稿では,時系列におけるシンボルパターンの抽出とカウントを含む時系列分類のための辞書手法と,畳み込みカーネル(ROCKETとその変種)を用いて入力時系列を変換する手法との単純な接続を示す。
一つのハイパーパラメータを調整することで、辞書法に似たモデルとROCKETに似たモデルの間で次々に移動可能であることを示す。
本稿では,競合する畳み込み型カーネルを用いた時系列分類のための簡易かつ高速,高精度な辞書手法であるhydraを提案する。
HYDRAは既存の辞書手法よりも高速で正確であり、ROCKETとその変種と組み合わせることで、これらの手法の精度をさらに向上することができる。
関連論文リスト
- Chronos: Learning the Language of Time Series [79.38691251254173]
Chronosは事前訓練された確率的時系列モデルのためのフレームワークである。
クロノスモデルでは,様々な領域の時系列データを利用して,未知の予測タスクにおけるゼロショット精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-03-12T16:53:54Z) - Dictionary Learning Improves Patch-Free Circuit Discovery in Mechanistic
Interpretability: A Case Study on Othello-GPT [59.245414547751636]
本稿では,アクティベーションパッチに代わる回路発見フレームワークを提案する。
当社のフレームワークはアウト・オブ・ディストリビューション(out-of-distribution)に悩まされており、複雑さの観点からより効率的であることが証明されています。
我々はOthelloという名前の合成タスクで訓練された小さなトランスフォーマーを掘り下げ、その内部に人間に理解可能な微細な回路がいくつかある。
論文 参考訳(メタデータ) (2024-02-19T15:04:53Z) - Generalized Time Warping Invariant Dictionary Learning for Time Series
Classification and Clustering [8.14208923345076]
動的時間ワープ(DTW)は、時間的遅延、スケーリング、変換、その他多くの時間的ミスアライメント問題を扱うために一般的に使用される。
本稿では,時変不変辞書学習アルゴリズムを提案する。
辞書学習,分類,クラスタリングの観点から,提案手法の優位性を10組の公開データセットを用いて検証した。
論文 参考訳(メタデータ) (2023-06-30T14:18:13Z) - LRANet: Towards Accurate and Efficient Scene Text Detection with
Low-Rank Approximation Network [63.554061288184165]
低ランク近似に基づく新しいパラメータ化テキスト形状法を提案する。
異なるテキストの輪郭間の形状相関を探索することにより, 形状表現における一貫性, コンパクト性, 単純性, 頑健性を実現する。
我々はLRANetという名前の正確で効率的な任意の形状のテキスト検出器を実装した。
論文 参考訳(メタデータ) (2023-06-27T02:03:46Z) - Convergence of alternating minimisation algorithms for dictionary
learning [4.5687771576879594]
辞書学習のための2つの交互最小化アルゴリズムの収束に十分な条件を導出する。
我々は、生成辞書に少なくとも1/log(K)$の距離で、あるいは、初期化の各要素が1つの生成要素のみを指していることを保証する特別な構造を持つような、よく知られた初期化が与えられた場合、どちらのアルゴリズムも生成辞書への幾何収束率に収束することを示す。
論文 参考訳(メタデータ) (2023-04-04T12:58:47Z) - Hierarchical Phrase-based Sequence-to-Sequence Learning [94.10257313923478]
本稿では、学習中の帰納バイアスの源として階層的フレーズを取り入れ、推論中の明示的な制約として、標準的なシーケンス・ツー・シーケンス(seq2seq)モデルの柔軟性を維持するニューラルトランスデューサについて述べる。
本手法では,木が原文と対象句を階層的に整列するブラケット文法に基づく識別的導出法と,整列した句を1対1で翻訳するニューラルネットワークセク2セックモデルという2つのモデルを訓練する。
論文 参考訳(メタデータ) (2022-11-15T05:22:40Z) - Dictionary Learning with Convex Update (ROMD) [6.367823813868024]
ROMDと呼ばれる新しいタイプの辞書学習アルゴリズムを提案する。
ROMDは凸行列を使って辞書全体を一度に更新する。
その結果、辞書更新の保証と辞書学習全体の高速化の両方が利点である。
論文 参考訳(メタデータ) (2021-10-13T11:14:38Z) - Nesterov Accelerated ADMM for Fast Diffeomorphic Image Registration [63.15453821022452]
ディープラーニングに基づくアプローチの最近の発展は、DiffIRのサブ秒間実行を実現している。
本稿では,中間定常速度場を機能的に構成する簡易な反復スキームを提案する。
次に、任意の順序の正規化項を用いて、これらの速度場に滑らかさを課す凸最適化モデルを提案する。
論文 参考訳(メタデータ) (2021-09-26T19:56:45Z) - Hash Layers For Large Sparse Models [48.90784451703753]
フィードフォワード層を現在のトークンによって異なる重みのセットにハッシュし、シーケンス内のすべてのトークンに対して変更する。
本手法は, 学習と学習の混合手法に比較して, 性能が優れているか, あるいは競争的であるかを示す。
論文 参考訳(メタデータ) (2021-06-08T14:54:24Z) - The Temporal Dictionary Ensemble (TDE) Classifier for Time Series
Classification [0.0]
時間辞書アンサンブル(TDE)は他の辞書ベースアプローチよりも正確である。
HIVE-COTEは、現在の最高のディープラーニングアプローチよりもはるかに正確です。
この進歩は時系列の分類のための芸術の新しい状態を表します。
論文 参考訳(メタデータ) (2021-05-09T05:27:42Z) - Exact Sparse Orthogonal Dictionary Learning [8.577876545575828]
提案手法は,過剰な辞書に基づく学習方法よりも,より難解な結果が得られることが判明した。
我々の方法には高効率の利点が加わった。
論文 参考訳(メタデータ) (2021-03-14T07:51:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。