論文の概要: Improving Time Series Classification Algorithms Using
Octave-Convolutional Layers
- arxiv url: http://arxiv.org/abs/2109.13696v1
- Date: Tue, 28 Sep 2021 13:12:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-29 19:52:24.867979
- Title: Improving Time Series Classification Algorithms Using
Octave-Convolutional Layers
- Title(参考訳): オクターブ畳み込み層を用いた時系列分類アルゴリズムの改善
- Authors: Samuel Harford, Fazle Karim, Houshang Darabi
- Abstract要約: 我々は,OctoConvとの畳み込みに代えて,時系列分類タスクの精度を大幅に向上させることを実験的に示した。
さらに、更新されたALSTM-OctFCNは、上位2つの時系列分類器と統計的に同一である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models utilizing convolution layers have achieved
state-of-the-art performance on univariate time series classification tasks. In
this work, we propose improving CNN based time series classifiers by utilizing
Octave Convolutions (OctConv) to outperform themselves. These network
architectures include Fully Convolutional Networks (FCN), Residual Neural
Networks (ResNets), LSTM-Fully Convolutional Networks (LSTM-FCN), and Attention
LSTM-Fully Convolutional Networks (ALSTM-FCN). The proposed layers
significantly improve each of these models with minimally increased network
parameters. In this paper, we experimentally show that by substituting
convolutions with OctConv, we significantly improve accuracy for time series
classification tasks for most of the benchmark datasets. In addition, the
updated ALSTM-OctFCN performs statistically the same as the top two time series
classifers, TS-CHIEF and HIVE-COTE (both ensemble models). To further explore
the impact of the OctConv layers, we perform ablation tests of the augmented
model compared to their base model.
- Abstract(参考訳): 畳み込み層を利用したディープラーニングモデルは、一変量時系列分類タスクで最先端のパフォーマンスを達成した。
本研究では,OctConv(OctConv)を用いて,CNNに基づく時系列分類器の改良を提案する。
これらのネットワークアーキテクチャには、Fully Convolutional Networks (FCN)、Residual Neural Networks (ResNets)、LSTM-Fully Convolutional Networks (LSTM-FCN)、Atention LSTM-Fully Convolutional Networks (ALSTM-FCN)などがある。
提案するレイヤは,ネットワークパラメータを最小に増やし,各モデルを大幅に改善する。
本稿では,OctoConvとコンボリューションを置換することにより,ベンチマークデータセットのほとんどに対する時系列分類タスクの精度を著しく向上することを示す。
さらに、ALSTM-OctFCNは、TS-CHIEFとHIVE-COTE(両アンサンブルモデル)の上位2つの時系列分類器と統計的に同一である。
そこで我々は,OctoConv層の影響をさらに調査するため,ベースモデルと比較して拡張モデルのアブレーション試験を行った。
関連論文リスト
- TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - Towards Energy-Efficient, Low-Latency and Accurate Spiking LSTMs [1.7969777786551424]
Spiking Neural Networks(SNN)は、複雑なタスクのための魅力的なテンポラルコンピューティングパラダイムビジョンとして登場した。
そこで本研究では,新規な長期記憶ネットワーク(LSTM)の学習フレームワークを提案する。
rev-to-SNN変換フレームワーク、続いてSNNトレーニング。
我々は、時間的M、Google Speech Commands(GSC)データセット、異なるLSTMアーキテクチャ上のUCIスマートフォンなど、逐次学習タスクに関するフレームワークを評価した。
論文 参考訳(メタデータ) (2022-10-23T04:10:27Z) - Image Classification using Sequence of Pixels [3.04585143845864]
本研究では,繰り返しニューラルネットワークを用いた逐次画像分類法の比較を行った。
本稿では,Long-Short-Term memory(LSTM)やBidirectional Long-Short-Term memory(BiLSTM)アーキテクチャに基づく手法について述べる。
論文 参考訳(メタデータ) (2022-09-23T09:42:44Z) - Classification of Long Sequential Data using Circular Dilated
Convolutional Neural Networks [10.014879130837912]
循環拡張畳み込みニューラルネットワーク(CDIL-CNN)と呼ばれる対称型マルチスケールアーキテクチャを提案する。
本モデルでは,全ての位置で分類ロジットを付与し,簡単なアンサンブル学習を適用し,より良い判断を下すことができる。
論文 参考訳(メタデータ) (2022-01-06T16:58:59Z) - A Comparative Study of Detecting Anomalies in Time Series Data Using
LSTM and TCN Models [2.007262412327553]
本稿では,2つの著名なディープラーニングモデリング手法を比較した。
Recurrent Neural Network (RNN)-based Long Short-Term Memory (LSTM) と Convolutional Neural Network (CNN)-based Temporal Convolutional Networks (TCN) を比較した。
論文 参考訳(メタデータ) (2021-12-17T02:46:55Z) - Train your classifier first: Cascade Neural Networks Training from upper
layers to lower layers [54.47911829539919]
我々は,高品質な分類器を探索するアルゴリズムとして見ることのできる,新しいトップダウン学習手法を開発した。
本研究では,自動音声認識(ASR)タスクと言語モデリングタスクについて検討した。
提案手法は,Wall Street Journal 上でのリカレントニューラルネットワーク ASR モデル,Switchboard 上での自己注意型 ASR モデル,WikiText-2 上での AWD-LSTM 言語モデルなど,一貫して改善されている。
論文 参考訳(メタデータ) (2021-02-09T08:19:49Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z) - Automatic Remaining Useful Life Estimation Framework with Embedded
Convolutional LSTM as the Backbone [5.927250637620123]
組込み畳み込みLSTM(E NeuralTM)と呼ばれる新しいLSTM変種を提案する。
ETMでは、異なる1次元の畳み込みの群がLSTM構造に埋め込まれている。
RUL推定のために広く用いられているいくつかのベンチマークデータセットに対する最先端のアプローチよりも,提案したEMMアプローチの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-08-10T08:34:20Z) - The Heterogeneity Hypothesis: Finding Layer-Wise Differentiated Network
Architectures [179.66117325866585]
我々は、通常見過ごされる設計空間、すなわち事前定義されたネットワークのチャネル構成を調整することを検討する。
この調整は、拡張ベースラインネットワークを縮小することで実現でき、性能が向上する。
画像分類、視覚追跡、画像復元のための様々なネットワークとデータセットで実験を行う。
論文 参考訳(メタデータ) (2020-06-29T17:59:26Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。