論文の概要: Few-Shot Forecasting of Time-Series with Heterogeneous Channels
- arxiv url: http://arxiv.org/abs/2204.03456v1
- Date: Thu, 7 Apr 2022 14:02:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-08 15:19:31.809690
- Title: Few-Shot Forecasting of Time-Series with Heterogeneous Channels
- Title(参考訳): 不均一チャネルによる時系列の短いショット予測
- Authors: Lukas Brinkmeyer and Rafael Rego Drumond and Johannes Burchert and
Lars Schmidt-Thieme
- Abstract要約: 本研究では,時間的埋め込みを組み込んだ置換不変な深部集合ブロックからなるモデルを開発する。
実験を通して、我々のモデルはより単純なシナリオから実行されたベースラインよりも優れた一般化を提供することを示す。
- 参考スコア(独自算出の注目度): 4.635820333232681
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning complex time series forecasting models usually requires a large
amount of data, as each model is trained from scratch for each task/data set.
Leveraging learning experience with similar datasets is a well-established
technique for classification problems called few-shot classification. However,
existing approaches cannot be applied to time-series forecasting because i)
multivariate time-series datasets have different channels and ii) forecasting
is principally different from classification. In this paper we formalize the
problem of few-shot forecasting of time-series with heterogeneous channels for
the first time. Extending recent work on heterogeneous attributes in vector
data, we develop a model composed of permutation-invariant deep set-blocks
which incorporate a temporal embedding. We assemble the first meta-dataset of
40 multivariate time-series datasets and show through experiments that our
model provides a good generalization, outperforming baselines carried over from
simpler scenarios that either fail to learn across tasks or miss temporal
information.
- Abstract(参考訳): 複雑な時系列予測モデルの学習は通常、タスク/データセットごとに各モデルがスクラッチからトレーニングされるため、大量のデータを必要とする。
類似したデータセットで学習経験を活用することは、ほとんどショット分類と呼ばれる分類問題の確立したテクニックである。
しかし、既存の手法は時系列予測には適用できない。
一 異なるチャンネルを有する多変量時系列データセット
二 予報は、主に分類と異なる。
本稿では,不均質チャネルを用いた時系列の少ない予測の問題を初めて定式化する。
ベクトルデータにおける不均一属性に関する最近の研究を拡張し、時間的埋め込みを含む置換不変深層集合ブロックからなるモデルを開発した。
40の時系列データセットの最初のメタデータセットを組み立て、我々のモデルが優れた一般化を提供し、タスク間で学習できなかったり、時間的情報を見逃したりする単純なシナリオで実行されたベースラインを上回っていることを実験を通して示します。
関連論文リスト
- DAM: Towards A Foundation Model for Time Series Forecasting [0.8231118867997028]
本稿では,ランダムにサンプリングされた履歴を抽出し,時間連続関数として調整可能な基底組成を出力するニューラルモデルを提案する。
1)長い尾の分布からランダムにサンプリングされたヒストリーを使用する柔軟なアプローチ、(2)これらの活発にサンプリングされたヒストリーに基づいてトレーニングされたトランスフォーマーバックボーンを表現的出力として、(3)時間の連続関数の基底係数を含む。
論文 参考訳(メタデータ) (2024-07-25T08:48:07Z) - UniCL: A Universal Contrastive Learning Framework for Large Time Series Models [18.005358506435847]
時系列分析は、金融から医療まで、さまざまな重要なアプリケーションにおいて重要な役割を果たす。
従来の教師付き学習手法は、まず各タスクにおける時系列データの広範なラベルを注釈付けする。
本稿では,時系列基礎モデルの事前学習を目的とした,普遍的でスケーラブルなコントラスト学習フレームワークUniCLを紹介する。
論文 参考訳(メタデータ) (2024-05-17T07:47:11Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - MECATS: Mixture-of-Experts for Quantile Forecasts of Aggregated Time
Series [11.826510794042548]
我々はtexttMECATS という異種の専門家フレームワークを混合して導入する。
集約階層を通じて関連付けられた時系列の集合の値を同時に予測する。
異なる種類の予測モデルを個別の専門家として使用することで、各モデルの形式を対応する時系列の性質に合わせて調整することができる。
論文 参考訳(メタデータ) (2021-12-22T05:05:30Z) - Cluster-and-Conquer: A Framework For Time-Series Forecasting [94.63501563413725]
本稿では,高次元時系列データを予測するための3段階フレームワークを提案する。
当社のフレームワークは非常に汎用的で,各ステップで時系列予測やクラスタリングが利用可能です。
単純な線形自己回帰モデルでインスタンス化されると、いくつかのベンチマークデータセットで最先端の結果が得られる。
論文 参考訳(メタデータ) (2021-10-26T20:41:19Z) - Monash Time Series Forecasting Archive [6.0617755214437405]
各種ドメインから利用可能な20の時系列データセットを含む総合時系列予測アーカイブを提案する。
特徴分析を行うことで,データセットを特徴付け,それらの類似点と相違点を識別する。
本論文では,8つの誤差指標にまたがる全データセットに対する標準ベースライン予測手法の性能について述べる。
論文 参考訳(メタデータ) (2021-05-14T04:49:58Z) - Global Models for Time Series Forecasting: A Simulation Study [2.580765958706854]
自動回帰(AR)や季節ARのような単純なデータ生成プロセス(DGP)からカオスロジスティックマップ、自己興奮型閾値自動回帰、マッキーグラス方程式といった複雑なDGPまで、時系列をシミュレートする。
データセットの長さと系列数は、さまざまなシナリオで変化します。
我々はこれらのデータセットに対して,Recurrent Neural Networks (RNN), Feed-Forward Neural Networks, Pooled Regression (PR) Model, Light Gradient Boosting Models (LGBM)などの大域的予測モデルを用いて実験を行った。
論文 参考訳(メタデータ) (2020-12-23T04:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。