論文の概要: Classification of Long Sequential Data using Circular Dilated
Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2201.02143v1
- Date: Thu, 6 Jan 2022 16:58:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-07 16:11:00.175180
- Title: Classification of Long Sequential Data using Circular Dilated
Convolutional Neural Networks
- Title(参考訳): 円拡大畳み込みニューラルネットワークを用いた長周期データの分類
- Authors: Lei Cheng, Ruslan Khalitov, Tong Yu, and Zhirong Yang
- Abstract要約: 循環拡張畳み込みニューラルネットワーク(CDIL-CNN)と呼ばれる対称型マルチスケールアーキテクチャを提案する。
本モデルでは,全ての位置で分類ロジットを付与し,簡単なアンサンブル学習を適用し,より良い判断を下すことができる。
- 参考スコア(独自算出の注目度): 10.014879130837912
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Classification of long sequential data is an important Machine Learning task
and appears in many application scenarios. Recurrent Neural Networks,
Transformers, and Convolutional Neural Networks are three major techniques for
learning from sequential data. Among these methods, Temporal Convolutional
Networks (TCNs) which are scalable to very long sequences have achieved
remarkable progress in time series regression. However, the performance of TCNs
for sequence classification is not satisfactory because they use a skewed
connection protocol and output classes at the last position. Such asymmetry
restricts their performance for classification which depends on the whole
sequence. In this work, we propose a symmetric multi-scale architecture called
Circular Dilated Convolutional Neural Network (CDIL-CNN), where every position
has an equal chance to receive information from other positions at the previous
layers. Our model gives classification logits in all positions, and we can
apply a simple ensemble learning to achieve a better decision. We have tested
CDIL-CNN on various long sequential datasets. The experimental results show
that our method has superior performance over many state-of-the-art approaches.
- Abstract(参考訳): 長いシーケンシャルデータの分類は機械学習の重要なタスクであり、多くのアプリケーションシナリオに現れる。
リカレントニューラルネットワーク、トランスフォーマー、畳み込みニューラルネットワークは、シーケンシャルデータから学ぶための3つの主要なテクニックである。
これらの手法のうち、非常に長いシーケンスにスケーラブルな時間畳み込みネットワーク(tcns)は、時系列回帰の著しい進歩を達成した。
しかし、シーケンス分類におけるTCNの性能は、スキュー接続プロトコルと出力クラスが最終位置にあるため満足できない。
このような非対称性は、シーケンス全体に依存する分類の性能を制限する。
そこで本研究では,各位置が前層の他の位置から情報を受信する機会が等しくなるCDIL-CNN(Circular Dilated Convolutional Neural Network)という,対称なマルチスケールアーキテクチャを提案する。
本モデルでは,全ての位置で分類ロジットを付与し,簡単なアンサンブル学習を適用してより良い判定を行う。
我々は様々な長い時系列データセットでCDIL-CNNを検証した。
実験の結果,本手法は多くの最先端手法よりも優れた性能を示した。
関連論文リスト
- How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - Combining Recurrent, Convolutional, and Continuous-time Models with
Linear State-Space Layers [21.09321438439848]
一般化する制御系にインスパイアされた単純なシーケンスモデルを導入する。
LSSLモデルは上記の3つのモデルのファミリーと密接な関係を示し、その強みを継承する。
例えば、畳み込みを連続時間に一般化し、共通のRNN-1を説明し、時間スケール適応のようなNDEの特徴を共有する。
論文 参考訳(メタデータ) (2021-10-26T19:44:53Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Collaborative Method for Incremental Learning on Classification and
Generation [32.07222897378187]
本稿では,ニューラルネットワークを用いたインクリメンタルなクラス学習のための新しいアルゴリズム,Incrmental Class Learning with Attribute Sharing (ICLAS)を導入する。
そのコンポーネントの1つであるincGANは、トレーニングデータよりも多彩な画像を生成することができる。
データ不足の困難な環境下で、ICLASは段階的に分類と生成ネットワークを訓練する。
論文 参考訳(メタデータ) (2020-10-29T06:34:53Z) - SRDCNN: Strongly Regularized Deep Convolution Neural Network
Architecture for Time-series Sensor Signal Classification Tasks [4.950427992960756]
SRDCNN: 時系列分類タスクを実行するために, SRDCNN(Strongly Regularized Deep Convolution Neural Network)をベースとしたディープアーキテクチャを提案する。
提案手法の新規性は、ネットワークウェイトが L1 と L2 のノルム法則によって正則化されることである。
論文 参考訳(メタデータ) (2020-07-14T08:42:39Z) - Continual Learning in Recurrent Neural Networks [67.05499844830231]
リカレントニューラルネットワーク(RNN)を用いた逐次データ処理における連続学習手法の有効性を評価する。
RNNに弾性重み強化などの重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重
そこで本研究では,重み付け手法の性能が処理シーケンスの長さに直接的な影響を受けず,むしろ高動作メモリ要求の影響を受けていることを示す。
論文 参考訳(メタデータ) (2020-06-22T10:05:12Z) - Time Series Data Augmentation for Neural Networks by Time Warping with a
Discriminative Teacher [17.20906062729132]
本稿では,ガイド付きワープと呼ばれる新しい時系列データ拡張を提案する。
ガイド付きワープは動的時間ワープ(DTW)と形状DTWの要素アライメント特性を利用する。
我々は、深部畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)を用いて、2015 UCR Time Series Archiveにある85のデータセットすべてに対する手法の評価を行った。
論文 参考訳(メタデータ) (2020-04-19T06:33:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。