論文の概要: A method for estimating the entropy of time series using artificial
neural network
- arxiv url: http://arxiv.org/abs/2107.08399v1
- Date: Sun, 18 Jul 2021 09:31:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-20 14:35:25.120836
- Title: A method for estimating the entropy of time series using artificial
neural network
- Title(参考訳): ニューラルネットワークを用いた時系列エントロピー推定法
- Authors: Andrei Velichko and Hanif Heidari
- Abstract要約: エントロピー測度には 欠点があります 特に 短い連続では
本稿では,LogNNet 784:25:10ニューラルネットワークモデルを用いて時系列のエントロピーを推定する手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Measuring the predictability and complexity of time series is an essential
tool in designing and controlling the nonlinear system. There exist different
entropy measures in the literature to analyze the predictability and complexity
of time series. However, these measures have some drawbacks especially in short
time series. To overcome the difficulties, this paper proposes a new method for
estimating the entropy of a time series using the LogNNet 784:25:10 neural
network model. The LogNNet reservoir matrix consists of 19625 elements which is
filled with the time series elements. After that, the network is trained on
MNIST-10 dataset and the classification accuracy is calculated. The accuracy is
considered as the entropy measure and denoted by NNetEn. A more complex
transformation of the input information by the time series in the reservoir
leads to higher NNetEn values. Many practical time series data have less than
19625 elements. Some duplicating or stretching methods are investigated to
overcome this difficulty and the most successful method is identified for
practical applications. The epochs number in the training process of LogNNet is
considered as the input parameter. A new time series characteristic called time
series learning inertia is introduced to investigate the effect of epochs
number in the efficiency of neural network. To show the robustness and
efficiency of the proposed method, it is applied on some chaotic, periodic,
random, binary and constant time series. The NNetEn is compared with some
existing entropy measures. The results show that the proposed method is more
robust and accurate than existing methods.
- Abstract(参考訳): 時系列の予測可能性と複雑性を測定することは、非線形システムの設計と制御に不可欠なツールである。
時系列の予測可能性と複雑性を分析するために、文献には異なるエントロピー測度が存在する。
しかし、これらの措置は特に短命連続においていくつかの欠点がある。
そこで本研究では,LogNNet 784:25:10ニューラルネットワークモデルを用いて時系列のエントロピーを推定する手法を提案する。
LogNNet貯水池マトリックスは19625個の元素から構成され、時系列要素で満たされている。
その後、MNIST-10データセットに基づいてネットワークをトレーニングし、分類精度を算出する。
精度はエントロピー測度と見なされ、NNetEnで表される。
貯留層内の時系列による入力情報のより複雑な変換は、より高いNNetEn値をもたらす。
多くの実用的な時系列データは19625要素未満である。
この難しさを克服するために, 重複法や伸張法について検討し, 実用化に最も成功した手法を同定した。
入力パラメータとしてLogNNetのトレーニングプロセスにおけるエポック数を考慮する。
ニューラルネットワークの効率性におけるエポック数の影響を調べるために,時系列学習慣性と呼ばれる新しい時系列特性を導入する。
提案手法のロバスト性と効率性を示すために, カオス, 周期, ランダム, バイナリ, 定数時系列に適用した。
NNetEnは既存のエントロピー測度と比較される。
その結果,提案手法は既存手法よりも頑健で精度が高いことがわかった。
関連論文リスト
- Continuous-time Autoencoders for Regular and Irregular Time Series Imputation [21.25279298572273]
時系列計算は、時系列の最も基本的なタスクの1つである。
最近の自己注意に基づく手法は、最先端の計算性能を示している。
連続時間リカレントニューラルネットワークに基づく計算法の設計は,長年にわたって見過ごされてきた。
論文 参考訳(メタデータ) (2023-12-27T14:13:42Z) - Time-Parameterized Convolutional Neural Networks for Irregularly Sampled
Time Series [26.77596449192451]
不規則にサンプリングされた時系列は、いくつかのアプリケーション領域でユビキタスであり、スパースであり、完全に観測されていない、非整合的な観察に繋がる。
標準シーケンシャルニューラルネットワーク(RNN)と畳み込みニューラルネットワーク(CNN)は、観測時間間の定期的な間隔を考慮し、不規則な時系列モデリングに重大な課題を提起する。
時間的に不規則なカーネルを用いて畳み込み層をパラメータ化する。
論文 参考訳(メタデータ) (2023-08-06T21:10:30Z) - Neural Network Entropy (NNetEn): Entropy-Based EEG Signal and Chaotic
Time Series Classification, Python Package for NNetEn Calculation [0.0]
エントロピー測度は時系列分類問題に有効な特徴である。
システムのカオス力学を特徴づけるためには,新しいエントロピー推定法が必要である。
ニューラルネットワークエントロピー(NNetEn)の概念は,ニューラルネットワークの貯水池に記録された時系列のエントロピーに関連する特別なデータセットの分類に基づいている。
論文 参考訳(メタデータ) (2023-03-31T12:11:21Z) - STING: Self-attention based Time-series Imputation Networks using GAN [4.052758394413726]
GANを用いたSING(Self-attention based Time-Series Imputation Networks)を提案する。
我々は、時系列の潜在表現を学習するために、生成的対向ネットワークと双方向リカレントニューラルネットワークを利用する。
3つの実世界のデータセットによる実験結果から、STINGは既存の最先端手法よりも計算精度が優れていることが示された。
論文 参考訳(メタデータ) (2022-09-22T06:06:56Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z) - Novel techniques for improvement the NNetEn entropy calculation for
short and noisy time series [0.0]
エントロピー測度には、時系列の長さや振幅に対する感度、外部ノイズに対するロバスト性などの欠点がある。
NNetEnエントロピー測度はこれらの問題を克服するために導入された。
SNRが30dBを超えると、NNetEnエントロピーの計算誤差が10%を超えないことが示されている。
論文 参考訳(メタデータ) (2022-02-25T14:01:13Z) - Novel Features for Time Series Analysis: A Complex Networks Approach [62.997667081978825]
時系列データは、気候、経済、医療などいくつかの領域で広く使われている。
最近の概念的アプローチは、複雑なネットワークへの時系列マッピングに依存している。
ネットワーク分析は、異なるタイプの時系列を特徴付けるのに使うことができる。
論文 参考訳(メタデータ) (2021-10-11T13:46:28Z) - Online learning of windmill time series using Long Short-term Cognitive
Networks [58.675240242609064]
風車農場で生成されたデータの量は、オンライン学習が従うべき最も有効な戦略となっている。
我々はLong Short-term Cognitive Networks (LSTCNs) を用いて、オンライン環境での風車時系列を予測する。
提案手法は,単純なRNN,長期記憶,Gated Recurrent Unit,Hidden Markov Modelに対して最も低い予測誤差を報告した。
論文 参考訳(メタデータ) (2021-07-01T13:13:24Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z) - Meta-Learning for Koopman Spectral Analysis with Short Time-series [49.41640137945938]
既存の手法では、ニューラルネットワークのトレーニングに長い時間を要する。
本稿では,未知の短い時系列から埋め込み関数を推定するメタラーニング手法を提案する。
提案手法は,固有値推定と将来予測の観点から,よりよい性能を実現することを実験的に実証した。
論文 参考訳(メタデータ) (2021-02-09T07:19:19Z) - Learned Factor Graphs for Inference from Stationary Time Sequences [107.63351413549992]
定常時間列のためのモデルベースアルゴリズムとデータ駆動型MLツールを組み合わせたフレームワークを提案する。
ニューラルネットワークは、時系列の分布を記述する因子グラフの特定のコンポーネントを別々に学習するために開発された。
本稿では,学習された定常因子グラフに基づく推論アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-05T07:06:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。