論文の概要: RTFN: A Robust Temporal Feature Network for Time Series Classification
- arxiv url: http://arxiv.org/abs/2011.11829v2
- Date: Tue, 29 Dec 2020 02:23:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 13:46:28.304914
- Title: RTFN: A Robust Temporal Feature Network for Time Series Classification
- Title(参考訳): RTFN:時系列分類のためのロバストな時間特徴ネットワーク
- Authors: Zhiwen Xiao, Xin Xu, Huanlai Xing, Shouxi Luo, Penglin Dai, Dawei Zhan
- Abstract要約: 時系列データは通常、ローカルパターンとグローバルパターンを含む。
特徴ネットワークによる表現を得ることはまだ困難である。
我々は、新しい時間的特徴ネットワーク(TFN)とLSTMベースの注目ネットワーク(LSTMaN)を提案する。
- 参考スコア(独自算出の注目度): 9.982074664830867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series data usually contains local and global patterns. Most of the
existing feature networks pay more attention to local features rather than the
relationships among them. The latter is, however, also important yet more
difficult to explore. To obtain sufficient representations by a feature network
is still challenging. To this end, we propose a novel robust temporal feature
network (RTFN) for feature extraction in time series classification, containing
a temporal feature network (TFN) and an LSTM-based attention network (LSTMaN).
TFN is a residual structure with multiple convolutional layers. It functions as
a local-feature extraction network to mine sufficient local features from data.
LSTMaN is composed of two identical layers, where attention and long short-term
memory (LSTM) networks are hybridized. This network acts as a relation
extraction network to discover the intrinsic relationships among the extracted
features at different positions in sequential data. In experiments, we embed
RTFN into a supervised structure as a feature extractor and into an
unsupervised structure as an encoder, respectively. The results show that the
RTFN-based structures achieve excellent supervised and unsupervised performance
on a large number of UCR2018 and UEA2018 datasets.
- Abstract(参考訳): 時系列データは通常、ローカルおよびグローバルパターンを含む。
既存の機能ネットワークの多くは、それらの関係よりも、ローカル機能に注意を払っている。
しかし、後者はより重要であり、探索も困難である。
特徴ネットワークによる十分な表現を得ることはまだ困難である。
そこで本稿では,時間的特徴ネットワーク(TFN)とLSTMに基づく注目ネットワーク(LSTMaN)を含む時系列分類における特徴抽出のための,新しい頑健な時間的特徴ネットワーク(RTFN)を提案する。
TFNは複数の畳み込み層を持つ残留構造である。
データから十分なローカル特徴を抽出するローカル機能抽出ネットワークとして機能する。
LSTMaNは2つの同一層から構成されており、注意と長期記憶(LSTM)ネットワークがハイブリッド化されている。
このネットワークは関係抽出ネットワークとして機能し、逐次データにおいて、抽出された特徴間の固有の関係を異なる位置に発見する。
実験では,RTFNを特徴抽出器として,教師なし構造にエンコーダとして,それぞれ組み込む。
その結果、RTFNをベースとした構造は、多数のUCR2018およびUEA2018データセットにおいて、教師付きおよび教師なしのパフォーマンスに優れていた。
関連論文リスト
- Graph Expansion in Pruned Recurrent Neural Network Layers Preserve Performance [7.142235510048155]
我々は、RNNやLSTMのような再帰的なネットワークを創り出し、基礎となるグラフのスペクトルギャップを大きく維持する。
また、2部層の性質の観点から、時間展開された再帰的ネットワークグラフについても検討する。
論文 参考訳(メタデータ) (2024-03-17T06:08:08Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - A^2-FPN: Attention Aggregation based Feature Pyramid Network for
Instance Segmentation [68.10621089649486]
アテンションアグリゲーションに基づく機能ピラミッドネットワーク(A2-FPN)を提案し、マルチスケール機能学習を改善します。
A2-FPNは、Cascade Mask R-CNNやHybrid Task Cascadeといった強力なベースラインに統合された場合、2.0%と1.4%のマスクAPを改善する。
論文 参考訳(メタデータ) (2021-05-07T11:51:08Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Hybrid Backpropagation Parallel Reservoir Networks [8.944918753413827]
本稿では,貯水池のランダムな時間的特徴と深層ニューラルネットワークの読み出し能力と,バッチ正規化を併用した新しいハイブリッドネットワークを提案する。
我々の新しいネットワークはLSTMやGRUよりも優れていることを示す。
また, HBP-ESN M-Ring と呼ばれる新しいメタリング構造を組み込むことで, 1つの大きな貯水池に類似した性能を実現し, メモリ容量の最大化を図っている。
論文 参考訳(メタデータ) (2020-10-27T21:03:35Z) - RTFN: Robust Temporal Feature Network [10.304629792265223]
本稿では、時間的特徴ネットワークと注目LSTMネットワークを含む、新しい頑健な時間的特徴ネットワーク(RTFN)を提案する。
基本的な時間ネットワークは、複雑なシェープレットとデータ強化の関係をキャプチャするために構築されている。
実験では,機能ネットワークとして教師付き構造に,エンコーダとして教師なしクラスタリングにNを組み込む。
論文 参考訳(メタデータ) (2020-08-18T02:43:30Z) - Instance Explainable Temporal Network For Multivariate Timeseries [0.0]
本稿では,推論のインスタンスごとの分類決定において重要なチャネルを識別する新しいネットワーク(IETNet)を提案する。
IETNetは、時間的特徴抽出、変数選択、共同変数の相互作用を単一の学習フレームワークに組み合わせたエンドツーエンドネットワークである。
論文 参考訳(メタデータ) (2020-05-26T20:55:24Z) - Temporal Pyramid Network for Action Recognition [129.12076009042622]
本稿では,2次元あるいは3次元のバックボーンネットワークに柔軟に統合可能な汎用時間ピラミッドネットワーク(TPN)を提案する。
TPNは、いくつかのアクション認識データセット上で、他の困難なベースラインよりも一貫して改善されている。
論文 参考訳(メタデータ) (2020-04-07T17:17:23Z) - Temporally Distributed Networks for Fast Video Semantic Segmentation [64.5330491940425]
TDNetは、高速かつ正確なビデオセマンティックセグメンテーションのために設計された時間分散ネットワークである。
我々は,深層CNNの特定の高層層から抽出した特徴を,より浅いサブネットワークから抽出した特徴の合成により近似することができることを観察した。
Cityscapes, CamVid, NYUD-v2 の実験により,本手法が高速かつ低レイテンシで最先端の精度を実現することを示す。
論文 参考訳(メタデータ) (2020-04-03T22:43:32Z) - Depth Enables Long-Term Memory for Recurrent Neural Networks [0.0]
本稿では,スタートエンド分離ランク(Start-End separation rank)と呼ばれる時間的情報フローを支援するネットワークの能力を評価する。
より深い再帰的ネットワークは、浅いネットワークで支えられるものよりも高いスタートエンド分離ランクをサポートすることを証明している。
論文 参考訳(メタデータ) (2020-03-23T10:29:14Z) - Dense Residual Network: Enhancing Global Dense Feature Flow for
Character Recognition [75.4027660840568]
本稿では,すべての畳み込み層から階層的特徴をフルに活用することにより,局所的・大域的特徴フローを改善する方法について検討する。
技術的には、テキスト認識のための効率的で効果的なCNNフレームワークであるFDRN(Fast Dense Residual Network)を提案する。
論文 参考訳(メタデータ) (2020-01-23T06:55:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。