論文の概要: HyperTime: Implicit Neural Representation for Time Series
- arxiv url: http://arxiv.org/abs/2208.05836v1
- Date: Thu, 11 Aug 2022 14:05:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-12 13:30:41.589293
- Title: HyperTime: Implicit Neural Representation for Time Series
- Title(参考訳): HyperTime: 時系列のための暗黙のニューラル表現
- Authors: Elizabeth Fons and Alejandro Sztrajman and Yousef El-laham and
Alexandros Iosifidis and Svitlana Vyetrenko
- Abstract要約: 暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 131.57172578210256
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Implicit neural representations (INRs) have recently emerged as a powerful
tool that provides an accurate and resolution-independent encoding of data.
Their robustness as general approximators has been shown in a wide variety of
data sources, with applications on image, sound, and 3D scene representation.
However, little attention has been given to leveraging these architectures for
the representation and analysis of time series data. In this paper, we analyze
the representation of time series using INRs, comparing different activation
functions in terms of reconstruction accuracy and training convergence speed.
We show how these networks can be leveraged for the imputation of time series,
with applications on both univariate and multivariate data. Finally, we propose
a hypernetwork architecture that leverages INRs to learn a compressed latent
representation of an entire time series dataset. We introduce an FFT-based loss
to guide training so that all frequencies are preserved in the time series. We
show that this network can be used to encode time series as INRs, and their
embeddings can be interpolated to generate new time series from existing ones.
We evaluate our generative method by using it for data augmentation, and show
that it is competitive against current state-of-the-art approaches for
augmentation of time series.
- Abstract(参考訳): 暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
一般的な近似器としてのロバスト性は、画像、音、三次元シーン表現など、様々なデータソースで示されている。
しかし、時系列データの表現と分析にこれらのアーキテクチャを活用することにはほとんど注意が払われていない。
本稿では,inrsを用いた時系列表現を解析し,復元精度と学習収束速度の観点から異なるアクティベーション関数を比較した。
本稿では,これらのネットワークを時系列のインプテーションに活用し,非変量データと多変量データの両方に適用する方法を示す。
最後に,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
時系列にすべての周波数が保存されるように、FFTベースの損失をガイドトレーニングに導入する。
このネットワークは,INRとして時系列をエンコードすることができ,その埋め込みを補間して既存の時系列から新たな時系列を生成することができる。
データ拡張に使用することで生成手法を評価するとともに,現在最先端の時系列拡張手法と競合することを示す。
関連論文リスト
- Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Representation Learning of Multivariate Time Series using Attention and
Adversarial Training [2.0577627277681887]
変換器をベースとしたオートエンコーダを提案し, 逆方向のトレーニングスキームを用いて, 人工時系列信号を生成する。
その結果,生成した信号は畳み込みネットワークを用いた場合よりも,模範的データセットとの類似性が高いことがわかった。
論文 参考訳(メタデータ) (2024-01-03T21:32:46Z) - TimeMAE: Self-Supervised Representations of Time Series with Decoupled
Masked Autoencoders [55.00904795497786]
トランスフォーマネットワークに基づく転送可能な時系列表現を学習するための,新しい自己教師型パラダイムであるTimeMAEを提案する。
TimeMAEは双方向符号化方式を用いて時系列の豊富な文脈表現を学習する。
新たに挿入されたマスク埋め込みによって生じる不一致を解消するため、分離されたオートエンコーダアーキテクチャを設計する。
論文 参考訳(メタデータ) (2023-03-01T08:33:16Z) - STING: Self-attention based Time-series Imputation Networks using GAN [4.052758394413726]
GANを用いたSING(Self-attention based Time-Series Imputation Networks)を提案する。
我々は、時系列の潜在表現を学習するために、生成的対向ネットワークと双方向リカレントニューラルネットワークを利用する。
3つの実世界のデータセットによる実験結果から、STINGは既存の最先端手法よりも計算精度が優れていることが示された。
論文 参考訳(メタデータ) (2022-09-22T06:06:56Z) - Towards Generating Real-World Time Series Data [52.51620668470388]
時系列データ生成のための新しい生成フレームワーク - RTSGANを提案する。
RTSGANは、時系列インスタンスと固定次元潜在ベクトルの間のマッピングを提供するエンコーダデコーダモジュールを学習する。
不足した値の時系列を生成するために、RTSGANに観測埋め込み層と決定・生成デコーダを更に装備する。
論文 参考訳(メタデータ) (2021-11-16T11:31:37Z) - Novel Features for Time Series Analysis: A Complex Networks Approach [62.997667081978825]
時系列データは、気候、経済、医療などいくつかの領域で広く使われている。
最近の概念的アプローチは、複雑なネットワークへの時系列マッピングに依存している。
ネットワーク分析は、異なるタイプの時系列を特徴付けるのに使うことができる。
論文 参考訳(メタデータ) (2021-10-11T13:46:28Z) - Time Series is a Special Sequence: Forecasting with Sample Convolution
and Interaction [9.449017120452675]
時系列データ(英: time series)とは、時系列データの一種で、時系列で記録された観測の集合である。
既存のディープラーニング技術では、時系列解析にジェネリックシーケンスモデルを使用しており、そのユニークな性質を無視している。
本稿では,新しいニューラルネットワークアーキテクチャを提案し,時系列予測問題に適用し,時間的モデリングのための複数の解像度でサンプル畳み込みと相互作用を行う。
論文 参考訳(メタデータ) (2021-06-17T08:15:04Z) - Graph Attention Recurrent Neural Networks for Correlated Time Series
Forecasting -- Full version [16.22449727526222]
時間とともに複数のエンティティが相互に相互作用し、そのエンティティの時間変化状態が相関時間系列として表されるような設定を検討する。
相関時系列の正確な予測を可能にするために,グラフ注意再帰ニューラルネットワークを提案する。
大規模実世界の時系列データを用いた実験により,提案手法の有効性が示唆された。
論文 参考訳(メタデータ) (2021-03-19T12:15:37Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Time Series Data Augmentation for Neural Networks by Time Warping with a
Discriminative Teacher [17.20906062729132]
本稿では,ガイド付きワープと呼ばれる新しい時系列データ拡張を提案する。
ガイド付きワープは動的時間ワープ(DTW)と形状DTWの要素アライメント特性を利用する。
我々は、深部畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)を用いて、2015 UCR Time Series Archiveにある85のデータセットすべてに対する手法の評価を行った。
論文 参考訳(メタデータ) (2020-04-19T06:33:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。