論文の概要: Don't overfit the history -- Recursive time series data augmentation
- arxiv url: http://arxiv.org/abs/2207.02891v1
- Date: Wed, 6 Jul 2022 18:09:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-09 06:49:49.235010
- Title: Don't overfit the history -- Recursive time series data augmentation
- Title(参考訳): 履歴に過度に適合するな -- 時系列データ拡張
- Authors: Amine Mohamed Aboussalah, Min-Jae Kwon, Raj G Patel, Cheng Chi,
Chi-Guhn Lee
- Abstract要約: 本稿では,RIM で表される再帰補間法(Recursive Interpolation Method)と呼ばれる時系列拡張のための一般的なフレームワークを提案する。
提案するRIMを特徴付ける理論解析を行い,その試験性能を保証する。
RIMを実時間時系列の多種多様な事例に適用し、回帰、分類、強化学習タスクの非強化データよりも高い性能を達成する。
- 参考スコア(独自算出の注目度): 17.31522835086563
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time series observations can be seen as realizations of an underlying
dynamical system governed by rules that we typically do not know. For time
series learning tasks, we need to understand that we fit our model on available
data, which is a unique realized history. Training on a single realization
often induces severe overfitting lacking generalization. To address this issue,
we introduce a general recursive framework for time series augmentation, which
we call Recursive Interpolation Method, denoted as RIM. New samples are
generated using a recursive interpolation function of all previous values in
such a way that the enhanced samples preserve the original inherent time series
dynamics. We perform theoretical analysis to characterize the proposed RIM and
to guarantee its test performance. We apply RIM to diverse real world time
series cases to achieve strong performance over non-augmented data on
regression, classification, and reinforcement learning tasks.
- Abstract(参考訳): 時系列観測は、我々が通常知らない規則によって支配される基礎となる力学系の実現と見なすことができる。
時系列学習タスクには、利用可能なデータにモデルが適合していることを理解する必要があります。
単一の実現に関する訓練は、しばしば一般化の欠如をひどく引き起こす。
この問題に対処するために,時系列拡張のための一般的な再帰的枠組みを導入し,再帰的補間法をrimと呼ぶ。
新しいサンプルは、全ての前の値の再帰的補間関数を用いて、拡張されたサンプルが元の固有時系列のダイナミクスを保存するように生成される。
提案するRIMを特徴付ける理論解析を行い,その試験性能を保証する。
RIMを実時間時系列の多様な事例に適用し、回帰、分類、強化学習タスクの非強化データよりも高い性能を達成する。
関連論文リスト
- Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - A Bag of Receptive Fields for Time Series Extrinsic Predictions [8.172425535905038]
高次元時系列データは、そのダイナミックな性質、様々な長さ、欠落した値の存在のために課題を提起する。
本稿では,時系列畳み込みと1D-SAXの概念を取り入れたBag-Of-Receptive-FieldsモデルであるBORFを提案する。
BORF on Time Series Classification and Time Series Extrinsic Regression task using the full UEA and UCR repository。
論文 参考訳(メタデータ) (2023-11-29T19:13:10Z) - MADS: Modulated Auto-Decoding SIREN for time series imputation [9.673093148930874]
我々は,暗黙のニューラル表現に基づく時系列計算のための新しい自動デコードフレームワークMADSを提案する。
実世界の2つのデータセット上で本モデルを評価し,時系列計算における最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-03T09:08:47Z) - Unsupervised Feature Based Algorithms for Time Series Extrinsic
Regression [0.9659642285903419]
Time Series Extrinsic Regression (TSER) は、連続応答変数の予測モデルを形成するために一連のトレーニング時系列を使用する。
DrCIF と FreshPRINCE モデルは、標準の回転森林回帰器を著しく上回っている唯一のモデルである。
論文 参考訳(メタデータ) (2023-05-02T13:58:20Z) - Continuous-time convolutions model of event sequences [53.36665135225617]
イベントシーケンスデータの巨大なサンプルは、eコマース、ヘルスケア、ファイナンスなど、さまざまなドメインで発生します。
利用可能なデータの量とクライアント毎のイベントシーケンスの長さは典型的には大きいため、長期的なモデリングが必要である。
時間内の事象の一様発生に適した連続畳み込みニューラルネットワークに基づくCOTIC法を提案する。
論文 参考訳(メタデータ) (2023-02-13T10:34:51Z) - STING: Self-attention based Time-series Imputation Networks using GAN [4.052758394413726]
GANを用いたSING(Self-attention based Time-Series Imputation Networks)を提案する。
我々は、時系列の潜在表現を学習するために、生成的対向ネットワークと双方向リカレントニューラルネットワークを利用する。
3つの実世界のデータセットによる実験結果から、STINGは既存の最先端手法よりも計算精度が優れていることが示された。
論文 参考訳(メタデータ) (2022-09-22T06:06:56Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z) - Cluster-and-Conquer: A Framework For Time-Series Forecasting [94.63501563413725]
本稿では,高次元時系列データを予測するための3段階フレームワークを提案する。
当社のフレームワークは非常に汎用的で,各ステップで時系列予測やクラスタリングが利用可能です。
単純な線形自己回帰モデルでインスタンス化されると、いくつかのベンチマークデータセットで最先端の結果が得られる。
論文 参考訳(メタデータ) (2021-10-26T20:41:19Z) - Abstractive Query Focused Summarization with Query-Free Resources [60.468323530248945]
本稿では,汎用的な要約リソースのみを利用して抽象的なqfsシステムを構築する問題を考える。
本稿では,要約とクエリのための新しい統一表現からなるMasked ROUGE回帰フレームワークであるMargeを提案する。
最小限の監視から学習したにもかかわらず,遠隔管理環境において最先端の結果が得られた。
論文 参考訳(メタデータ) (2020-12-29T14:39:35Z) - Time Series Extrinsic Regression [6.5513221781395465]
Time Series Extrinsic Regression (TSER)は、時系列と連続スカラー変数の関係を学習することを目的とした回帰タスクである。
我々は、TSERデータセット19の新たなアーカイブ上で、既存の解とTSCアルゴリズムの適応をベンチマークする。
以上の結果から,現在最先端のTSCアルゴリズムであるRocketが回帰に適応すると,全体的な精度が最も高いことがわかった。
論文 参考訳(メタデータ) (2020-06-23T00:15:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。