論文の概要: Take an Irregular Route: Enhance the Decoder of Time-Series Forecasting
Transformer
- arxiv url: http://arxiv.org/abs/2312.05792v1
- Date: Sun, 10 Dec 2023 06:50:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 18:38:12.171561
- Title: Take an Irregular Route: Enhance the Decoder of Time-Series Forecasting
Transformer
- Title(参考訳): 不規則な経路を取る:時系列予測変換器のデコーダ
- Authors: Li Shen, Yuning Wei, Yangzhu Wang, Hongguang Li
- Abstract要約: 本稿では,エンコーダとデコーダのボトムアップおよびトップダウンアーキテクチャを利用して,完全かつ合理的な階層を構築するためのFPPformerを提案する。
6つの最先端ベンチマークによる大規模な実験は、FPPformerの有望な性能を検証する。
- 参考スコア(独自算出の注目度): 9.281993269355544
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the development of Internet of Things (IoT) systems, precise long-term
forecasting method is requisite for decision makers to evaluate current
statuses and formulate future policies. Currently, Transformer and MLP are two
paradigms for deep time-series forecasting and the former one is more
prevailing in virtue of its exquisite attention mechanism and encoder-decoder
architecture. However, data scientists seem to be more willing to dive into the
research of encoder, leaving decoder unconcerned. Some researchers even adopt
linear projections in lieu of the decoder to reduce the complexity. We argue
that both extracting the features of input sequence and seeking the relations
of input and prediction sequence, which are respective functions of encoder and
decoder, are of paramount significance. Motivated from the success of FPN in CV
field, we propose FPPformer to utilize bottom-up and top-down architectures
respectively in encoder and decoder to build the full and rational hierarchy.
The cutting-edge patch-wise attention is exploited and further developed with
the combination, whose format is also different in encoder and decoder, of
revamped element-wise attention in this work. Extensive experiments with six
state-of-the-art baselines on twelve benchmarks verify the promising
performances of FPPformer and the importance of elaborately devising decoder in
time-series forecasting Transformer. The source code is released in
https://github.com/OrigamiSL/FPPformer.
- Abstract(参考訳): モノのインターネット(IoT)システムの開発において,意思決定者が現状を評価し,今後の政策を定式化する上で,正確な長期予測手法が不可欠である。
現在、トランスフォーマーとmlpは、深い時系列予測のための2つのパラダイムであり、前者は、その優れた注意機構とエンコーダ-デコーダアーキテクチャのおかげで、より普及している。
しかし、データ科学者はエンコーダの研究に参入する意思があり、デコーダは無意識のままである。
一部の研究者は複雑さを減らすためにデコーダの代わりに線形射影も採用している。
我々は、入力シーケンスの特徴を抽出し、エンコーダとデコーダのそれぞれの機能である入力シーケンスと予測シーケンスの関係を求めることが最重要であると主張している。
CV分野におけるFPNの成功を機に,エンコーダとデコーダのボトムアップアーキテクチャとトップダウンアーキテクチャを用いて,フルかつ合理的な階層を構築するFPPformerを提案する。
本研究における要素的注意を改良したエンコーダとデコーダの形式も異なるカッティング・エッジ・パッチ・アズ・アウェイ・アテンションを活用し,さらに発展させた。
12ベンチマークの6つの最先端ベースラインによる大規模な実験により、FPPformerの有望な性能と、Transformerの時系列予測における精巧なデコーダの重要性が検証された。
ソースコードはhttps://github.com/OrigamiSL/FPPformerで公開されている。
関連論文リスト
- Transformer-based Video Saliency Prediction with High Temporal Dimension
Decoding [12.595019348741042]
本稿では,高テンポラル次元ネットワークデコーディング(THTDNet)を用いたトランスフォーマに基づくビデオサリエンシ予測手法を提案する。
このアーキテクチャは、DHF1KやUCFスポーツ、ハリウッド-2といった一般的なベンチマークで、マルチブランチや過剰に複雑なモデルに匹敵する性能が得られる。
論文 参考訳(メタデータ) (2024-01-15T20:09:56Z) - DEED: Dynamic Early Exit on Decoder for Accelerating Encoder-Decoder
Transformer Models [22.276574156358084]
我々は,各デコーダ層が妥当な予測を生成できるように,深層監視で訓練されたマルチエキシット・エンコーダ・デコーダ・トランスフォーマモデルを構築した。
提案手法は,ベースラインに比べて精度が向上し,全体の推論遅延を30%から60%削減できることを示す。
論文 参考訳(メタデータ) (2023-11-15T01:01:02Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - Improving Position Encoding of Transformers for Multivariate Time Series
Classification [5.467400475482668]
本稿では,時間絶対位置という時系列データ専用の絶対位置符号化手法を提案する。
次に,TAPE/eRPEとConvTranという名前の畳み込み型入力符号化を組み合わせた新しい時系列分類(MTSC)モデルを提案し,時系列データの位置とデータ埋め込みを改善する。
論文 参考訳(メタデータ) (2023-05-26T05:30:04Z) - Think Twice before Driving: Towards Scalable Decoders for End-to-End
Autonomous Driving [74.28510044056706]
既存のメソッドは通常、分離されたエンコーダ-デコーダパラダイムを採用する。
本研究は,この問題を2つの原則で緩和することを目的としている。
まず、エンコーダの特徴に基づいて、粗い将来の位置と行動を予測する。
そして、その位置と動作を条件に、将来のシーンを想像して、それに従って運転した場合にその影響を確認する。
論文 参考訳(メタデータ) (2023-05-10T15:22:02Z) - Decoder Tuning: Efficient Language Understanding as Decoding [84.68266271483022]
本稿では,タスク固有のデコーダネットワークを出力側で最適化するデコーダチューニング(DecT)を提案する。
勾配ベースの最適化により、DecTは数秒以内にトレーニングでき、サンプル毎に1つのPクエリしか必要としない。
我々は、広範囲にわたる自然言語理解実験を行い、DecTが200ドル以上のスピードアップで最先端のアルゴリズムを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-12-16T11:15:39Z) - Efficient VVC Intra Prediction Based on Deep Feature Fusion and
Probability Estimation [57.66773945887832]
本稿では,フレーム内予測におけるVersatile Video Coding (VVC) の複雑性を,深層融合と確率推定の2段階のフレームワークを用いて最適化することを提案する。
特に高精細度(HD)および超高精細度(UHD)ビデオシーケンスにおいて,提案手法の優位性を示す実験結果が得られた。
論文 参考訳(メタデータ) (2022-05-07T08:01:32Z) - Sparsity and Sentence Structure in Encoder-Decoder Attention of
Summarization Systems [38.672160430296536]
トランスフォーマーモデルは、要約を含む幅広いNLPタスクにおいて最先端の結果を得た。
これまでの研究は、エンコーダの二次的自己保持機構という、重要なボトルネックに重点を置いてきた。
この研究はトランスのエンコーダ・デコーダのアテンション機構に焦点を当てている。
論文 参考訳(メタデータ) (2021-09-08T19:32:42Z) - On the Sub-Layer Functionalities of Transformer Decoder [74.83087937309266]
トランスフォーマーをベースとしたデコーダは,ソースおよびターゲット言語からの情報をいかに活用するかを検討する。
これらの知見に基づき,各トランスフォーマーデコーダ層内の残フィードフォワードモジュールは,性能の低下を最小限に抑えられることを示した。
論文 参考訳(メタデータ) (2020-10-06T11:50:54Z) - On Sparsifying Encoder Outputs in Sequence-to-Sequence Models [90.58793284654692]
我々はTransformerをテストベッドとして、エンコーダとデコーダの間にあるゲートの層を導入します。
ゲートは、パリシティ誘導L0ペナルティの期待値を用いて正規化される。
このスペーサー化が2つの機械翻訳と2つの要約タスクに与える影響について検討する。
論文 参考訳(メタデータ) (2020-04-24T16:57:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。