論文の概要: Class-Specific Attention (CSA) for Time-Series Classification
- arxiv url: http://arxiv.org/abs/2211.10609v1
- Date: Sat, 19 Nov 2022 07:51:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 21:45:25.181379
- Title: Class-Specific Attention (CSA) for Time-Series Classification
- Title(参考訳): 時系列分類のためのクラス特化注意(CSA)
- Authors: Yifan Hao, Huiping Cao, K. Selcuk Candan, Jiefei Liu, Huiying Chen,
Ziwei Ma
- Abstract要約: 本稿では,クラス固有の重要な特徴を抽出し,時系列の全体的な分類性能を向上させるために,新しいクラス固有アテンション(CSA)モジュールを提案する。
CSAモジュールに埋め込まれたNNモデルは、ほとんどの場合ベースモデルを改善することができ、精度は最大42%向上する。
統計分析の結果, CSAモジュールを組み込んだNNモデルの性能は, MTSの67%, UTSのテストケースの80%において, ベースNNモデルよりも優れていた。
- 参考スコア(独自算出の注目度): 8.390973438687777
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most neural network-based classifiers extract features using several hidden
layers and make predictions at the output layer by utilizing these extracted
features. We observe that not all features are equally pronounced in all
classes; we call such features class-specific features. Existing models do not
fully utilize the class-specific differences in features as they feed all
extracted features from the hidden layers equally to the output layers. Recent
attention mechanisms allow giving different emphasis (or attention) to
different features, but these attention models are themselves class-agnostic.
In this paper, we propose a novel class-specific attention (CSA) module to
capture significant class-specific features and improve the overall
classification performance of time series. The CSA module is designed in a way
such that it can be adopted in existing neural network (NN) based models to
conduct time series classification. In the experiments, this module is plugged
into five start-of-the-art neural network models for time series classification
to test its effectiveness by using 40 different real datasets. Extensive
experiments show that an NN model embedded with the CSA module can improve the
base model in most cases and the accuracy improvement can be up to 42%. Our
statistical analysis show that the performance of an NN model embedding the CSA
module is better than the base NN model on 67% of MTS and 80% of UTS test cases
and is significantly better on 11% of MTS and 13% of UTS test cases.
- Abstract(参考訳): ほとんどのニューラルネットワークベースの分類器は、複数の隠れレイヤを使用して特徴を抽出し、これらの特徴を利用して出力層で予測を行う。
すべての機能がすべてのクラスで等しく発音されるわけではない。
既存のモデルは、隠れたレイヤから抽出されたすべての機能を出力層に等しく供給するため、機能におけるクラス固有の違いを完全には利用しません。
最近の注意機構は、異なる特徴に異なる強調(または注意)を与えることができるが、これらの注意モデルはクラスに依存しない。
本稿では,クラス特有な特徴を捉え,時系列の全体的な分類性能を向上させるための新しいクラス特有注意(csa)モジュールを提案する。
CSAモジュールは、時系列分類を行うために、既存のニューラルネットワーク(NN)ベースのモデルで採用できるように設計されている。
実験では、このモジュールを5つの最先端ニューラルネットワークモデルにプラグインして時系列分類を行い、40の実際のデータセットを使用してその効果をテストする。
広範な実験により、csaモジュールに埋め込まれたnnモデルは、ほとんどのケースでベースモデルを改善することができ、精度が最大42%向上することが示されている。
統計分析の結果, CSAモジュールを組み込んだNNモデルの性能は, MTSの67%, UTSテストの80%でベースNNモデルよりも優れており, MTSの11%, UTSテストの13%では有意に優れていた。
関連論文リスト
- Sparse Modular Activation for Efficient Sequence Modeling [94.11125833685583]
線形状態空間モデルと自己アテンション機構を組み合わせた最近のモデルでは、様々なシーケンスモデリングタスクにおいて顕著な結果が示されている。
現在のアプローチでは、アテンションモジュールを静的かつ均一に入力シーケンスのすべての要素に適用し、最適以下の品質効率のトレードオフをもたらす。
SMA(Sparse Modular Activation)は,ニューラルネットワークが配列要素のサブモジュールを異なる方法でスパースに活性化する機構である。
論文 参考訳(メタデータ) (2023-06-19T23:10:02Z) - Multiclass classification for multidimensional functional data through
deep neural networks [0.22843885788439797]
革新的なデータマイニング分類ツールとして,新しい機能深層ニューラルネットワーク(mfDNN)を導入する。
線形単位(ReLU)アクティベーション機能を持つ疎いディープニューラルネットワークアーキテクチャを考察し,マルチクラス分類設定におけるクロスエントロピー損失を最小化する。
シミュレーションデータと異なるアプリケーションドメインのベンチマークデータセットにおけるmfDNNの性能を示す。
論文 参考訳(メタデータ) (2023-05-22T16:56:01Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Domain Adaptive Nuclei Instance Segmentation and Classification via
Category-aware Feature Alignment and Pseudo-labelling [65.40672505658213]
本稿では, UDA 核インスタンス分割と分類のための新しいディープニューラルネットワークである Category-Aware 機能アライメントと Pseudo-Labelling Network (CAPL-Net) を提案する。
我々のアプローチは、最先端のUDA手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2022-07-04T07:05:06Z) - Animal Behavior Classification via Accelerometry Data and Recurrent
Neural Networks [11.099308746733028]
各種リカレントニューラルネットワーク(RNN)モデルを用いた加速度計測データを用いた動物行動の分類について検討した。
検討したモデルの分類性能と複雑性を評価する。
また、評価には2つの最先端畳み込みニューラルネットワーク(CNN)ベースの時系列分類モデルも含んでいる。
論文 参考訳(メタデータ) (2021-11-24T23:28:25Z) - Improving Time Series Classification Algorithms Using
Octave-Convolutional Layers [0.0]
我々は,OctoConvとの畳み込みに代えて,時系列分類タスクの精度を大幅に向上させることを実験的に示した。
さらに、更新されたALSTM-OctFCNは、上位2つの時系列分類器と統計的に同一である。
論文 参考訳(メタデータ) (2021-09-28T13:12:09Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z) - Learning Class Regularized Features for Action Recognition [68.90994813947405]
本稿では,階層活性化のクラスベース正規化を行うクラス正規化手法を提案する。
動作認識に最先端CNNアーキテクチャのクラス正規化ブロックを用いることで,Kineetics,UCF-101,HMDB-51データセットにおいて,それぞれ1.8%,1.2%,1.4%の体系的改善が得られた。
論文 参考訳(メタデータ) (2020-02-07T07:27:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。