論文の概要: FPTN: Fast Pure Transformer Network for Traffic Flow Forecasting
- arxiv url: http://arxiv.org/abs/2303.07685v1
- Date: Tue, 14 Mar 2023 07:55:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 15:57:32.533067
- Title: FPTN: Fast Pure Transformer Network for Traffic Flow Forecasting
- Title(参考訳): FPTN:交通流予測のための高速純変圧器ネットワーク
- Authors: Junhao Zhang, Junjie Tang, Juncheng Jin, Zehui Qu
- Abstract要約: 交通流データに複雑な相関関係があるため,交通流の予測は困難である。
既存のTransformerベースの手法は、時系列予測(MTS)としてトラフィックフロー予測を扱う。
本稿では,FPTN(Fast Pure Transformer Network)を提案する。
- 参考スコア(独自算出の注目度): 6.485778915696199
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traffic flow forecasting is challenging due to the intricate spatio-temporal
correlations in traffic flow data. Existing Transformer-based methods usually
treat traffic flow forecasting as multivariate time series (MTS) forecasting.
However, too many sensors can cause a vector with a dimension greater than 800,
which is difficult to process without information loss. In addition, these
methods design complex mechanisms to capture spatial dependencies in MTS,
resulting in slow forecasting speed. To solve the abovementioned problems, we
propose a Fast Pure Transformer Network (FPTN) in this paper. First, the
traffic flow data are divided into sequences along the sensor dimension instead
of the time dimension. Then, to adequately represent complex spatio-temporal
correlations, Three types of embeddings are proposed for projecting these
vectors into a suitable vector space. After that, to capture the complex
spatio-temporal correlations simultaneously in these vectors, we utilize
Transformer encoder and stack it with several layers. Extensive experiments are
conducted with 4 real-world datasets and 13 baselines, which demonstrate that
FPTN outperforms the state-of-the-art on two metrics. Meanwhile, the
computational time of FPTN spent is less than a quarter of other
state-of-the-art Transformer-based models spent, and the requirements for
computing resources are significantly reduced.
- Abstract(参考訳): 交通流データの複雑な時空間相関のため,交通流予測は困難である。
既存のTransformerベースの手法では、トラフィックフロー予測を多変量時系列(MTS)予測として扱うのが一般的である。
しかし、多くのセンサが800以上のベクトルを発生させる可能性があるため、情報損失なしでは処理が困難である。
さらに、これらの手法はmts内の空間依存性を捉える複雑なメカニズムを設計し、予測速度を遅くする。
本稿では,上記の問題を解決するために高速トランスフォーマネットワーク(fptn)を提案する。
まず、トラヒックフローデータは、時間次元ではなくセンサ次元に沿ってシーケンスに分割される。
そして、複素時空間相関を適切に表現するために、これらのベクトルを適当なベクトル空間に射影する3種類の埋め込みを提案する。
その後、これらのベクトルにおける複素時空間相関を同時に捉えるために、トランスコーダを利用して複数の層を積み重ねる。
大規模な実験は4つの実世界のデータセットと13のベースラインで行われ、FPTNが2つの指標で最先端よりも優れていることを示した。
一方、FPTNの計算時間は、他の最先端のTransformerベースのモデルの4分の1以下であり、計算リソースの要求は大幅に削減されている。
関連論文リスト
- Enhanced Traffic Flow Prediction with Multi-Segment Fusion Tensor Graph Convolutional Networks [9.44949364543965]
既存の交通流予測モデルは、交通ネットワーク内の複雑な空間的依存関係をキャプチャする際の制限に悩まされる。
本研究では,交通流予測のためのマルチセグメント融合テンソルグラフ畳み込みネットワーク(MS-FTGCN)を提案する。
2つの交通流データセットを用いた実験の結果,提案したMS-FTGCNは最先端モデルよりも優れていた。
論文 参考訳(メタデータ) (2024-08-08T05:37:17Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Transform Once: Efficient Operator Learning in Frequency Domain [69.74509540521397]
本研究では、周波数領域の構造を利用して、空間や時間における長距離相関を効率的に学習するために設計されたディープニューラルネットワークについて検討する。
この研究は、単一変換による周波数領域学習のための青写真を導入している。
論文 参考訳(メタデータ) (2022-11-26T01:56:05Z) - Correlating sparse sensing for large-scale traffic speed estimation: A
Laplacian-enhanced low-rank tensor kriging approach [76.45949280328838]
本稿では,Laplacian enhanced Low-rank tensor (LETC) フレームワークを提案する。
次に,提案したモデルをネットワークワイド・クリグにスケールアップするために,複数の有効な数値手法を用いて効率的な解アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-10-21T07:25:57Z) - TCTN: A 3D-Temporal Convolutional Transformer Network for Spatiotemporal
Predictive Learning [1.952097552284465]
本稿では3次元時間畳み込み変換器 (TCTN) というアルゴリズムを提案する。
提案アルゴリズムは,Transformerの並列機構により,RNNベースの手法に比べて,実装や訓練が容易である。
論文 参考訳(メタデータ) (2021-12-02T10:05:01Z) - TCCT: Tightly-Coupled Convolutional Transformer on Time Series
Forecasting [6.393659160890665]
本稿では, 密結合型畳み込み変換器(TCCT)と3つのTCCTアーキテクチャを提案する。
実世界のデータセットに対する我々の実験は、我々のTCCTアーキテクチャが既存の最先端トランスフォーマーモデルの性能を大幅に改善できることを示している。
論文 参考訳(メタデータ) (2021-08-29T08:49:31Z) - TransMOT: Spatial-Temporal Graph Transformer for Multiple Object
Tracking [74.82415271960315]
映像内の物体間の空間的・時間的相互作用を効率的にモデル化するソリューションであるTransMOTを提案する。
TransMOTは従来のTransformerよりも計算効率が高いだけでなく、トラッキング精度も向上している。
提案手法は、MOT15、MOT16、MOT17、MOT20を含む複数のベンチマークデータセット上で評価される。
論文 参考訳(メタデータ) (2021-04-01T01:49:05Z) - Spatial-Temporal Transformer Networks for Traffic Flow Forecasting [74.76852538940746]
本稿では,長期交通予測の精度を向上させるため,時空間変圧器ネットワーク(STTN)の新たなパラダイムを提案する。
具体的には、有向空間依存を動的にモデル化することにより、空間変換器と呼ばれる新しいグラフニューラルネットワークを提案する。
提案モデルにより,長期間にわたる空間的依存関係に対する高速かつスケーラブルなトレーニングが可能になる。
論文 参考訳(メタデータ) (2020-01-09T10:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。