論文の概要: SRDCNN: Strongly Regularized Deep Convolution Neural Network
Architecture for Time-series Sensor Signal Classification Tasks
- arxiv url: http://arxiv.org/abs/2007.06909v1
- Date: Tue, 14 Jul 2020 08:42:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 15:26:06.770790
- Title: SRDCNN: Strongly Regularized Deep Convolution Neural Network
Architecture for Time-series Sensor Signal Classification Tasks
- Title(参考訳): SRDCNN:時系列センサ信号分類タスクのための強正規化深部畳み込みニューラルネットワークアーキテクチャ
- Authors: Arijit Ukil, Antonio Jara, Leandro Marin
- Abstract要約: SRDCNN: 時系列分類タスクを実行するために, SRDCNN(Strongly Regularized Deep Convolution Neural Network)をベースとしたディープアーキテクチャを提案する。
提案手法の新規性は、ネットワークウェイトが L1 と L2 のノルム法則によって正則化されることである。
- 参考スコア(独自算出の注目度): 4.950427992960756
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNN) have been successfully used to perform
classification and regression tasks, particularly in computer vision based
applications. Recently, owing to the widespread deployment of Internet of
Things (IoT), we identify that the classification tasks for time series data,
specifically from different sensors are of utmost importance. In this paper, we
present SRDCNN: Strongly Regularized Deep Convolution Neural Network (DCNN)
based deep architecture to perform time series classification tasks. The
novelty of the proposed approach is that the network weights are regularized by
both L1 and L2 norm penalties. Both of the regularization approaches jointly
address the practical issues of smaller number of training instances,
requirement of quicker training process, avoiding overfitting problem by
incorporating sparsification of weight vectors as well as through controlling
of weight values. We compare the proposed method (SRDCNN) with relevant
state-of-the-art algorithms including different DNNs using publicly available
time series classification benchmark (the UCR/UEA archive) time series datasets
and demonstrate that the proposed method provides superior performance. We feel
that SRDCNN warrants better generalization capability to the deep architecture
by profoundly controlling the network parameters to combat the training
instance insufficiency problem of real-life time series sensor signals.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、特にコンピュータビジョンベースのアプリケーションにおいて、分類および回帰タスクの実行に成功している。
近年,IoT(Internet of Things,モノのインターネット)の普及により,時系列データ,特にセンサの分類タスクが最も重要になっている。
本稿では, SRDCNN: Strongly Regularized Deep Convolution Neural Network (DCNN) に基づく,時系列分類タスクを実行するディープアーキテクチャを提案する。
提案手法の新規性は、ネットワークウェイトが L1 と L2 のノルム法則によって正則化されることである。
どちらも、より少ないトレーニングインスタンスの実践的な問題、より迅速なトレーニングプロセスの要求、重みベクトルのスパース化と重み値の制御によるオーバーフィッティングの問題を回避するために、協調的に対処する。
提案手法(SRDCNN)と,公開時系列分類ベンチマーク(UCR/UEAアーカイブ)を用いて異なるDNNを含む関連技術アルゴリズムを比較し,提案手法が優れた性能を提供することを示す。
SRDCNNは,実時間時系列センサ信号のトレーニングインスタンス不足問題に対処するために,ネットワークパラメータを深く制御することで,より優れた一般化能力を深層アーキテクチャに保証していると感じている。
関連論文リスト
- Adaptive Spiking Neural Networks with Hybrid Coding [0.0]
スパイテンポラルニューラルネットワーク(SNN)は、ニューラルネットワークよりもエネルギー効率が高く効果的なニューラルネットワークである
従来のSNNは、異なる時間ステップで入力データを処理する際に同じニューロンを使用し、時間情報を効果的に統合し活用する能力を制限する。
本稿では,学習に必要な時間を短縮するだけでなく,ネットワーク全体の性能を向上させるためのハイブリッド符号化手法を提案する。
論文 参考訳(メタデータ) (2024-08-22T13:58:35Z) - SMORE: Similarity-based Hyperdimensional Domain Adaptation for
Multi-Sensor Time Series Classification [17.052624039805856]
マルチセンサ時系列分類のための新しい資源効率ドメイン適応(DA)アルゴリズムであるSMOREを提案する。
SMOREは、最先端(SOTA)のDNNベースのDAアルゴリズムよりも平均1.98%高い精度で18.81倍高速トレーニングと4.63倍高速推論を実現している。
論文 参考訳(メタデータ) (2024-02-20T18:48:49Z) - Time-Parameterized Convolutional Neural Networks for Irregularly Sampled
Time Series [26.77596449192451]
不規則にサンプリングされた時系列は、いくつかのアプリケーション領域でユビキタスであり、スパースであり、完全に観測されていない、非整合的な観察に繋がる。
標準シーケンシャルニューラルネットワーク(RNN)と畳み込みニューラルネットワーク(CNN)は、観測時間間の定期的な間隔を考慮し、不規則な時系列モデリングに重大な課題を提起する。
時間的に不規則なカーネルを用いて畳み込み層をパラメータ化する。
論文 参考訳(メタデータ) (2023-08-06T21:10:30Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Properties and Potential Applications of Random Functional-Linked Types
of Neural Networks [81.56822938033119]
ランダム関数リンクニューラルネットワーク(RFLNN)は、深い構造を学習する別の方法を提供する。
本稿では周波数領域の観点からRFLNNの特性について考察する。
本稿では,より優れた性能でBLSネットワークを生成する手法を提案し,ポゾン方程式を解くための効率的なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-04-03T13:25:22Z) - Resurrecting Recurrent Neural Networks for Long Sequences [45.800920421868625]
リカレントニューラルネットワーク(RNN)は、長いシーケンスに対する高速な推論を提供するが、最適化が難しく、訓練が遅い。
深部状態空間モデル(SSM)は、最近、長いシーケンスモデリングタスクにおいて非常によく機能することが示されている。
本稿では,信号伝搬の標準的な引数を用いた深部RNNの設計により,長距離推論タスクにおける深部SSMの性能を回復できることを示す。
論文 参考訳(メタデータ) (2023-03-11T08:53:11Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Continual Learning in Recurrent Neural Networks [67.05499844830231]
リカレントニューラルネットワーク(RNN)を用いた逐次データ処理における連続学習手法の有効性を評価する。
RNNに弾性重み強化などの重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重
そこで本研究では,重み付け手法の性能が処理シーケンスの長さに直接的な影響を受けず,むしろ高動作メモリ要求の影響を受けていることを示す。
論文 参考訳(メタデータ) (2020-06-22T10:05:12Z) - STDPG: A Spatio-Temporal Deterministic Policy Gradient Agent for Dynamic
Routing in SDN [6.27420060051673]
ソフトウェア定義ネットワーク(SDN)における動的ルーティングは、集中的な意思決定問題と見なすことができる。
本稿では,SDNにおける動的ルーティングのための新しいモデルフリーフレームワークを提案する。
STDPGは、平均的なエンドツーエンド遅延の観点から、より良いルーティングソリューションを実現する。
論文 参考訳(メタデータ) (2020-04-21T07:19:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。