論文の概要: On Mini-Batch Training with Varying Length Time Series
- arxiv url: http://arxiv.org/abs/2212.06536v1
- Date: Tue, 13 Dec 2022 12:40:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 13:51:16.147125
- Title: On Mini-Batch Training with Varying Length Time Series
- Title(参考訳): 長さ時系列の異なるミニバッチ訓練について
- Authors: Brian Kenji Iwana
- Abstract要約: 動的時間ワープ(DTW)の動的整合性を利用してデータセット中の時系列の長さを正規化する新しい手法を提案する。
このように、データセットに典型的な特徴を維持しながら、データセットの時系列の長さを一定のサイズに設定することができる。
- 参考スコア(独自算出の注目度): 6.09170287691728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In real-world time series recognition applications, it is possible to have
data with varying length patterns. However, when using artificial neural
networks (ANN), it is standard practice to use fixed-sized mini-batches. To do
this, time series data with varying lengths are typically normalized so that
all the patterns are the same length. Normally, this is done using zero padding
or truncation without much consideration. We propose a novel method of
normalizing the lengths of the time series in a dataset by exploiting the
dynamic matching ability of Dynamic Time Warping (DTW). In this way, the time
series lengths in a dataset can be set to a fixed size while maintaining
features typical to the dataset. In the experiments, all 11 datasets with
varying length time series from the 2018 UCR Time Series Archive are used. We
evaluate the proposed method by comparing it with 18 other length normalization
methods on a Convolutional Neural Network (CNN), a Long-Short Term Memory
network (LSTM), and a Bidirectional LSTM (BLSTM).
- Abstract(参考訳): 実世界の時系列認識アプリケーションでは、長さパターンの異なるデータを持つことができる。
しかし、ニューラルネットワーク(ANN)を使用する場合、固定サイズのミニバッチを使用するのが一般的である。
そのため、長さの異なる時系列データは、通常、全てのパターンが同じ長さになるように正規化される。
通常、これはほとんど考慮せずにゼロパディングや切り離しによって行われる。
本稿では,動的時間ウォーピング(dtw)の動的マッチング能力を利用して,データセット内の時系列の長さを正規化する新しい手法を提案する。
このように、データセットの時系列の長さは、データセットに典型的な特徴を維持しながら、一定のサイズに設定できる。
実験では、2018 UCR Time Series Archiveから長さの異なる11のデータセットが使用されている。
提案手法は、畳み込みニューラルネットワーク(CNN)、長短項記憶ネットワーク(LSTM)、双方向LSTM(BLSTM)において、他の18長正規化手法と比較して評価する。
関連論文リスト
- Were RNNs All We Needed? [53.393497486332]
従来のリカレントニューラルネットワーク(RNN)を10年以上前から再検討しています。
入力から隠れた状態依存を取り除くことで、LSTMやGRUはBPTTを必要とせず、並列で効率的に訓練できることを示す。
論文 参考訳(メタデータ) (2024-10-02T03:06:49Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Time-Parameterized Convolutional Neural Networks for Irregularly Sampled
Time Series [26.77596449192451]
不規則にサンプリングされた時系列は、いくつかのアプリケーション領域でユビキタスであり、スパースであり、完全に観測されていない、非整合的な観察に繋がる。
標準シーケンシャルニューラルネットワーク(RNN)と畳み込みニューラルネットワーク(CNN)は、観測時間間の定期的な間隔を考慮し、不規則な時系列モデリングに重大な課題を提起する。
時間的に不規則なカーネルを用いて畳み込み層をパラメータ化する。
論文 参考訳(メタデータ) (2023-08-06T21:10:30Z) - TimesNet: Temporal 2D-Variation Modeling for General Time Series
Analysis [80.56913334060404]
時系列解析は、天気予報、異常検出、行動認識などの応用において非常に重要である。
従来の手法では、1D時系列から直接これを達成しようと試みていた。
複雑な経時的変化を、複数の経時的変化と経時的変化に明らかにする。
論文 参考訳(メタデータ) (2022-10-05T12:19:51Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z) - Convolutional Neural Networks for Time-dependent Classification of
Variable-length Time Series [4.068599332377799]
時系列データは、観測過程の中断により、限られた時間範囲内でのみ取得されることが多い。
このような部分的時系列を分類するには、1)異なるタイムスタンプから引き出された可変長のデータを考慮する必要がある。
既存の畳み込みニューラルネットワークは、畳み込み後のグローバルプールを使用して長さ差をキャンセルする。
このアーキテクチャは、時間的相関関係全体を長いデータに組み込むことと、短いデータの特徴的崩壊を避けることのトレードオフに悩まされる。
論文 参考訳(メタデータ) (2022-07-08T07:15:13Z) - Novel Features for Time Series Analysis: A Complex Networks Approach [62.997667081978825]
時系列データは、気候、経済、医療などいくつかの領域で広く使われている。
最近の概念的アプローチは、複雑なネットワークへの時系列マッピングに依存している。
ネットワーク分析は、異なるタイプの時系列を特徴付けるのに使うことができる。
論文 参考訳(メタデータ) (2021-10-11T13:46:28Z) - TE-ESN: Time Encoding Echo State Network for Prediction Based on
Irregularly Sampled Time Series Data [6.221375620565451]
不規則サンプリング時系列(ISTS)に基づく予測は、現実世界の応用において広く懸念されている。
Time Echo State Network(TE-ESN)という新しいモデル構造を作成します。
ISTSデータを処理できる最初のESNsベースのモデルである。
1つのカオスシステムと3つの実世界のデータセットの実験は、TE-ESNがすべてのベースラインよりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2021-05-02T08:00:46Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Learning Long-Term Dependencies in Irregularly-Sampled Time Series [16.762335749650717]
連続時間隠れ状態を持つリカレントニューラルネットワーク(RNN)は、不規則サンプリング時系列のモデリングに自然に適合する。
我々は、標準のRNNと同様、この問題の根底にある理由は、トレーニング中に勾配が消滅または爆発することにあることを証明している。
我々は,その時間連続状態からメモリを分離する長寿命メモリ(LSTM)に基づく新しいアルゴリズムを設計することで,その解を提供する。
論文 参考訳(メタデータ) (2020-06-08T08:46:58Z) - Time Series Data Augmentation for Neural Networks by Time Warping with a
Discriminative Teacher [17.20906062729132]
本稿では,ガイド付きワープと呼ばれる新しい時系列データ拡張を提案する。
ガイド付きワープは動的時間ワープ(DTW)と形状DTWの要素アライメント特性を利用する。
我々は、深部畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)を用いて、2015 UCR Time Series Archiveにある85のデータセットすべてに対する手法の評価を行った。
論文 参考訳(メタデータ) (2020-04-19T06:33:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。