論文の概要: Transformers versus LSTMs for electronic trading
- arxiv url: http://arxiv.org/abs/2309.11400v1
- Date: Wed, 20 Sep 2023 15:25:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-21 15:40:22.125894
- Title: Transformers versus LSTMs for electronic trading
- Title(参考訳): 電子取引におけるトランスフォーマー対LSTM
- Authors: Paul Bilokon and Yitao Qiu
- Abstract要約: 本研究では,Transformerベースのモデルが金融時系列予測に適用可能か,LSTMに勝るかを検討する。
DLSTMと呼ばれるLSTMベースの新しいモデルを構築し、Transformerベースのモデルのための新しいアーキテクチャは、財務予測に適応するように設計されている。
実験結果は,Transformerベースのモデルが絶対価格列予測において限られた優位性しか持たないことを反映している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid development of artificial intelligence, long short term memory
(LSTM), one kind of recurrent neural network (RNN), has been widely applied in
time series prediction.
Like RNN, Transformer is designed to handle the sequential data. As
Transformer achieved great success in Natural Language Processing (NLP),
researchers got interested in Transformer's performance on time series
prediction, and plenty of Transformer-based solutions on long time series
forecasting have come out recently. However, when it comes to financial time
series prediction, LSTM is still a dominant architecture. Therefore, the
question this study wants to answer is: whether the Transformer-based model can
be applied in financial time series prediction and beat LSTM.
To answer this question, various LSTM-based and Transformer-based models are
compared on multiple financial prediction tasks based on high-frequency limit
order book data. A new LSTM-based model called DLSTM is built and new
architecture for the Transformer-based model is designed to adapt for financial
prediction. The experiment result reflects that the Transformer-based model
only has the limited advantage in absolute price sequence prediction. The
LSTM-based models show better and more robust performance on difference
sequence prediction, such as price difference and price movement.
- Abstract(参考訳): 人工知能の急速な発展に伴い、リカレントニューラルネットワーク(rnn)の一種であるlong short term memory(lstm)が時系列予測に広く用いられている。
RNNと同様に、Transformerはシーケンシャルデータを扱うように設計されている。
Transformerは自然言語処理(NLP)で大きな成功を収めたため、研究者は時系列予測におけるTransformerのパフォーマンスに興味を持ち、時系列予測におけるTransformerベースのソリューションは近年数多く出回っている。
しかし、金融時系列予測に関しては、LSTMは依然として支配的なアーキテクチャである。
そこで本研究では,Transformerベースのモデルが金融時系列予測に適用可能か,LSTMに勝るか,という疑問に答えたい。
この質問に答えるために、LSTMベースの様々なモデルとトランスフォーマーベースのモデルを比較し、高周波リミットオーダーブックデータに基づく複数の財務予測タスクについて比較する。
DLSTMと呼ばれるLSTMベースの新しいモデルを構築し、Transformerベースのモデルのための新しいアーキテクチャは、財務予測に適応するように設計されている。
実験結果は,トランスフォーマーモデルが絶対価格系列予測において限定的な利点しか持たないことを示す。
LSTMベースのモデルは、価格差や価格移動などの差分シーケンス予測において、より良い、より堅牢な性能を示す。
関連論文リスト
- QuLTSF: Long-Term Time Series Forecasting with Quantum Machine Learning [4.2117721107606005]
長期時系列予測では、過去の値に基づいて、時系列の多くの将来の値を予測する。
最近の量子機械学習(QML)は、古典的な機械学習モデルの能力を高めるための領域として進化している。
平均二乗誤差の低減と平均絶対誤差の両面から、最先端の古典的線形モデルに対するQuLTSFの利点を示す。
論文 参考訳(メタデータ) (2024-12-18T12:06:52Z) - Exploring Transformer-Augmented LSTM for Temporal and Spatial Feature Learning in Trajectory Prediction [1.7273380623090846]
本研究では,TransformerベースのモデルとLong Short-Term Memory (LSTM)ベースの技術の統合について検討する。
提案手法は, STA-LSTM, SA-LSTM, CS-LSTM, NaiveLSTM など, 従来の LSTM ベースの手法に対してベンチマークを行う。
論文 参考訳(メタデータ) (2024-12-18T01:31:08Z) - PRformer: Pyramidal Recurrent Transformer for Multivariate Time Series Forecasting [82.03373838627606]
Transformerアーキテクチャにおける自己保持機構は、時系列予測において時間順序を符号化するために位置埋め込みを必要とする。
この位置埋め込みへの依存は、トランスフォーマーの時間的シーケンスを効果的に表現する能力を制限している、と我々は主張する。
本稿では,Prepreを標準的なTransformerエンコーダと統合し,様々な実世界のデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2024-08-20T01:56:07Z) - xLSTMTime : Long-term Time Series Forecasting With xLSTM [0.0]
本稿では、時系列予測のための拡張LSTM (xLSTM) と呼ばれる最近のアーキテクチャの適応について述べる。
我々は、xLSTMTimeの性能を、複数の実世界のda-tasetにまたがる様々な最先端モデルと比較する。
この結果から,改良されたリカレントアーキテクチャは時系列予測において,トランスフォーマーモデルに代わる競合的な代替手段を提供する可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-14T15:15:00Z) - Probing the limit of hydrologic predictability with the Transformer
network [7.326504492614808]
我々は、広くベンチマークされたCAMELSデータセット上で、バニラトランスフォーマーアーキテクチャがLSTMと競合しないことを示す。
Transformerの再現性のない変種はLSTMとの混合比較を得ることができ、同じKling-Gupta効率係数(KGE)を他の指標とともに生成する。
Transformerの結果は現在の最先端のものほど高くはないが、それでもいくつかの貴重な教訓が得られた。
論文 参考訳(メタデータ) (2023-06-21T17:06:54Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Learning Bounded Context-Free-Grammar via LSTM and the
Transformer:Difference and Explanations [51.77000472945441]
Long Short-Term Memory (LSTM) と Transformer は、自然言語処理タスクに使用される2つの一般的なニューラルネットワークアーキテクチャである。
実際には、トランスフォーマーモデルの方がLSTMよりも表現力が高いことがよく見られる。
本研究では,LSTMとTransformerの実践的差異について検討し,その潜在空間分解パターンに基づく説明を提案する。
論文 参考訳(メタデータ) (2021-12-16T19:56:44Z) - Wake Word Detection with Streaming Transformers [72.66551640048405]
提案したトランスフォーマーモデルでは,同じ偽アラームレートで,平均25%の誤り拒否率でベースライン畳み込みネットワークを性能的に上回ることを示す。
Mobvoiのウェイクワードデータセットに関する実験により,提案したTransformerモデルはベースライン畳み込みネットワークを25%上回る性能を示した。
論文 参考訳(メタデータ) (2021-02-08T19:14:32Z) - Future Vector Enhanced LSTM Language Model for LVCSR [67.03726018635174]
本稿では,将来ベクトルを用いた拡張長短期メモリ(LSTM)LMを提案する。
実験の結果,提案したLSTM LMはBLEUスコアよりも長期のシーケンス予測に有効であることがわかった。
新たなLSTM LMと従来のLSTM LMを併用することで,単語誤り率を大幅に向上させることができる。
論文 参考訳(メタデータ) (2020-07-31T08:38:56Z) - Transformer Networks for Trajectory Forecasting [11.802437934289062]
本稿では,トランスフォーマーネットワークを用いた軌道予測手法を提案する。
これはLSTMの逐次ステップバイステップ処理からトランスフォーマーの唯一のアテンションベースのメモリ機構への根本的な切り替えである。
論文 参考訳(メタデータ) (2020-03-18T09:17:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。