論文の概要: Multiple-Resolution Tokenization for Time Series Forecasting with an Application to Pricing
- arxiv url: http://arxiv.org/abs/2407.03185v1
- Date: Wed, 3 Jul 2024 15:07:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 13:46:50.795996
- Title: Multiple-Resolution Tokenization for Time Series Forecasting with an Application to Pricing
- Title(参考訳): 時系列予測のためのマルチリゾリューショントークン化と価格設定への応用
- Authors: Egon Peršak, Miguel F. Anjos, Sebastian Lautz, Aleksandar Kolev,
- Abstract要約: 本稿では,時系列のトークン化に着目した時系列予測のためのトランスフォーマーアーキテクチャを提案する。
我々のアーキテクチャは、利用可能なすべてのデータにまたがって、多くのスケールで効率的な表現を同時に学習することを目的としています。
我々は,このモデルを,大手小売店のマークダウンチームが直面している現実的な予測問題に適用する。
- 参考スコア(独自算出の注目度): 41.94295877935867
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose a transformer architecture for time series forecasting with a focus on time series tokenisation and apply it to a real-world prediction problem from the pricing domain. Our architecture aims to learn effective representations at many scales across all available data simultaneously. The model contains a number of novel modules: a differentiated form of time series patching which employs multiple resolutions, a multiple-resolution module for time-varying known variables, a mixer-based module for capturing cross-series information, and a novel output head with favourable scaling to account for the increased number of tokens. We present an application of this model to a real world prediction problem faced by the markdown team at a very large retailer. On the experiments conducted our model outperforms in-house models and the selected existing deep learning architectures.
- Abstract(参考訳): 本稿では,時系列のトークン化に着目した時系列予測のためのトランスフォーマーアーキテクチャを提案する。
我々のアーキテクチャは、利用可能なすべてのデータにまたがって、多くのスケールで効率的な表現を同時に学習することを目的としています。
このモデルには、複数の解像度を使用する区別された時系列パッチング形式、時間変化のある既知の変数のための多重解像度モジュール、クロスシリーズ情報をキャプチャするミキサーベースのモジュール、トークンの増加を考慮に入れたスケーリングが可能な新規な出力ヘッドなど、多くの新しいモジュールが含まれている。
我々は,このモデルを,大手小売店のマークダウンチームが直面している現実的な予測問題に適用する。
実験では,本モデルが社内モデルおよび既存のディープラーニングアーキテクチャよりも優れていた。
関連論文リスト
- Deep Time Series Models: A Comprehensive Survey and Benchmark [74.28364194333447]
時系列データは、現実世界のシナリオにおいて非常に重要である。
近年、時系列コミュニティで顕著なブレークスルーが見られた。
多様な分析タスクのためのディープ時系列モデルの公正なベンチマークとして、時系列ライブラリ(TSLib)をリリースします。
論文 参考訳(メタデータ) (2024-07-18T08:31:55Z) - Context Neural Networks: A Scalable Multivariate Model for Time Series Forecasting [5.5711773076846365]
実世界の時系列は、しばしば孤立して取得できない複雑な相互依存性を示す。
本稿では,時系列モデルに関連性のある文脈洞察を付加する,効率的な線形複雑化手法であるContext Neural Networkを紹介する。
論文 参考訳(メタデータ) (2024-05-12T00:21:57Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - Merlion: A Machine Learning Library for Time Series [73.46386700728577]
Merlionは時系列のためのオープンソースの機械学習ライブラリである。
モデルの統一インターフェースと、異常検出と予測のためのデータセットを備えている。
Merlionはまた、本番環境でのモデルのライブデプロイメントと再トレーニングをシミュレートするユニークな評価フレームワークも提供する。
論文 参考訳(メタデータ) (2021-09-20T02:03:43Z) - Instance-wise Graph-based Framework for Multivariate Time Series
Forecasting [69.38716332931986]
我々は,異なる時刻スタンプにおける変数の相互依存性を利用するための,シンプルで効率的なインスタンス単位のグラフベースのフレームワークを提案する。
私たちのフレームワークのキーとなる考え方は、異なる変数の履歴時系列から予測すべき現在の時系列に情報を集約することです。
論文 参考訳(メタデータ) (2021-09-14T07:38:35Z) - Multivariate Time-series Anomaly Detection via Graph Attention Network [27.12694738711663]
多変量時系列の異常検出は、データマイニング研究と産業応用の両方において非常に重要である。
1つの大きな制限は、異なる時系列間の関係を明示的に捉えないことである。
この問題に対処するために,多変量時系列異常検出のための新しい自己教師型フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-04T07:46:19Z) - Time Series Forecasting With Deep Learning: A Survey [5.351996099005896]
我々は,1ステップアヘッドとマルチホライゾン時系列予測の両方で使用される共通エンコーダとデコーダの設計を調査した。
我々は、よく研究された統計モデルとニューラルネットワークコンポーネントを組み合わせたハイブリッドディープラーニングモデルの最近の発展に注目した。
論文 参考訳(メタデータ) (2020-04-28T10:32:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。