論文の概要: Tsformer: Time series Transformer for tourism demand forecasting
- arxiv url: http://arxiv.org/abs/2107.10977v1
- Date: Thu, 22 Jul 2021 06:33:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-26 13:51:48.570218
- Title: Tsformer: Time series Transformer for tourism demand forecasting
- Title(参考訳): tsformer: 観光需要予測のための時系列トランスフォーマー
- Authors: Siyuan Yi, Xing Chen, Chuanming Tang
- Abstract要約: 本稿では,観光需要予測のためのTransformer-Decoderアーキテクチャを用いた時系列トランスフォーマー(Tsformer)を提案する。
提案したTsformerは,エンコーダによる長期依存性をエンコードし,デコーダによる短期依存性をキャプチャし,アテンションインタラクションを簡略化する。
ジズハイゴウ渓谷とシグニャング山地の観光需要データセットと他の9つのベースライン手法による実験は、提案されたTsformerが全てのベースラインモデルを上回ったことを示している。
- 参考スコア(独自算出の注目度): 1.0883306593668278
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: AI-based methods have been widely applied to tourism demand forecasting.
However, current AI-based methods are short of the ability to process long-term
dependency, and most of them lack interpretability. The Transformer used
initially for machine translation shows an incredible ability to long-term
dependency processing. Based on the Transformer, we proposed a time series
Transformer (Tsformer) with Encoder-Decoder architecture for tourism demand
forecasting. The proposed Tsformer encodes long-term dependency with encoder,
captures short-term dependency with decoder, and simplifies the attention
interactions under the premise of highlighting dominant attention through a
series of attention masking mechanisms. These improvements make the multi-head
attention mechanism process the input sequence according to the time
relationship, contributing to better interpretability. What's more, the context
processing ability of the Encoder-Decoder architecture allows adopting the
calendar of days to be forecasted to enhance the forecasting performance.
Experiments conducted on the Jiuzhaigou valley and Siguniang mountain tourism
demand datasets with other nine baseline methods indicate that the proposed
Tsformer outperformed all baseline models in the short-term and long-term
tourism demand forecasting tasks. Moreover, ablation studies demonstrate that
the adoption of the calendar of days to be forecasted contributes to the
forecasting performance of the proposed Tsformer. For better interpretability,
the attention weight matrix visualization is performed. It indicates that the
Tsformer concentrates on seasonal features and days close to days to be
forecast in short-term forecasting.
- Abstract(参考訳): AIに基づく手法は、観光需要予測に広く応用されている。
しかし、現在のAIベースのメソッドは長期的な依存関係を処理する能力に欠けており、そのほとんどが解釈性に欠けています。
機械翻訳に最初に使われたTransformerは、長期依存処理の素晴らしい能力を示している。
本研究では,Transformerに基づいて,観光需要予測のためのEncoder-Decoderアーキテクチャを備えた時系列Transformer(Tsformer)を提案する。
The proposed Tsformer encodes a long-term dependency with encoder, captures short-term dependency with decoder, and Simplify the attention interaction under the purpose of the purpose of the priority attentioning mechanism through a series attention masking mechanism。
これらの改良により、マルチヘッドアテンション機構は、時間関係に応じて入力シーケンスを処理し、より良い解釈可能性をもたらす。
さらに、Encoder-Decoderアーキテクチャのコンテキスト処理能力により、予測パフォーマンスを向上させるために、日中のカレンダーを採用することができる。
ジズハイゴウ渓谷とシグニャング山地の観光需要データセットと他の9つのベースライン手法による実験は、提案されたTsformerが短期・長期観光需要予測タスクにおいて全てのベースラインモデルを上回ったことを示している。
さらに,予測すべき日のカレンダーの採用が,提案したTsformerの予測性能に寄与することを示す。
より良い解釈性を得るために、注目重量行列可視化を行う。
tsformerは、短期予測で予測される季節的特徴と日に近い日に集中していることを示している。
関連論文リスト
- Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための生成変換器Timer-XLを提案する。
Timer-XLは、統一されたアプローチにより、挑戦的な予測ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - Local Attention Mechanism: Boosting the Transformer Architecture for Long-Sequence Time Series Forecasting [8.841114905151152]
局所注意機構 (LAM) は時系列解析に適した効率的な注意機構である。
LAMは時系列の連続性特性を利用して計算された注目点数を減少させる。
時間とメモリO(nlogn)で動作する代数テンソルにLAMを実装するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-04T11:32:02Z) - Multiscale Representation Enhanced Temporal Flow Fusion Model for Long-Term Workload Forecasting [19.426131129034115]
本稿では,自己指導型マルチスケール表現学習を利用して,長期および短期のワークロードパターンを抽出する新しいフレームワークを提案する。
長期履歴はマルチスケール表現によって符号化され、短期観測は時流融合によってモデル化される。
論文 参考訳(メタデータ) (2024-07-29T04:42:18Z) - Adapting to Length Shift: FlexiLength Network for Trajectory Prediction [53.637837706712794]
軌道予測は、自律運転、ロボット工学、シーン理解など、様々な応用において重要な役割を果たしている。
既存のアプローチは主に、一般に標準入力時間を用いて、公開データセットの予測精度を高めるために、コンパクトなニューラルネットワークの開発に重点を置いている。
本稿では,様々な観測期間に対する既存の軌道予測の堅牢性を高めるための,汎用的で効果的なフレームワークFlexiLength Network(FLN)を紹介する。
論文 参考訳(メタデータ) (2024-03-31T17:18:57Z) - Rethinking Urban Mobility Prediction: A Super-Multivariate Time Series
Forecasting Approach [71.67506068703314]
長期の都市移動予測は、都市施設やサービスの効果的管理において重要な役割を担っている。
伝統的に、都市移動データはビデオとして構成され、経度と緯度を基本的なピクセルとして扱う。
本研究では,都市におけるモビリティ予測の新たな視点について紹介する。
都市移動データを従来のビデオデータとして単純化するのではなく、複雑な時系列と見なす。
論文 参考訳(メタデータ) (2023-12-04T07:39:05Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Temporal Saliency Detection Towards Explainable Transformer-based
Timeseries Forecasting [3.046315755726937]
本稿では、注意機構を基盤として、マルチ水平時系列予測に適用する効果的なアプローチであるTSD(Temporal Saliency Detection)を提案する。
TSD手法は, 多重ヘッドを凝縮することにより, 多分解能パターンの多分解能解析を容易にし, 複雑な時系列データの予測を段階的に向上させる。
論文 参考訳(メタデータ) (2022-12-15T12:47:59Z) - Autoformer: Decomposition Transformers with Auto-Correlation for
Long-Term Series Forecasting [68.86835407617778]
Autoformerは、Auto-Correlation機構を備えた、新しい分解アーキテクチャである。
長期的な予測では、Autoformerは6つのベンチマークで相対的に改善され、最先端の精度が得られる。
論文 参考訳(メタデータ) (2021-06-24T13:43:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。