論文の概要: Exploring the Advantages of Transformers for High-Frequency Trading
- arxiv url: http://arxiv.org/abs/2302.13850v1
- Date: Mon, 20 Feb 2023 09:02:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-05 05:43:21.237971
- Title: Exploring the Advantages of Transformers for High-Frequency Trading
- Title(参考訳): 高周波取引における変圧器の利点を探る
- Authors: Fazl Barez, Paul Bilokon, Arthur Gervais, Nikita Lisitsyn
- Abstract要約: 本稿では,高速Bitcoin-USDTログリターン予測のための新しいディープラーニングトランスフォーマーアーキテクチャについて検討する。
textbfHFformerと呼ばれるハイブリッドトランスフォーマーモデルは、Transformerエンコーダ、線形デコーダ、スパイクアクティベーション、量子損失関数を組み込んだ時系列予測のために導入された。
- 参考スコア(独自算出の注目度): 4.1531215150301035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper explores the novel deep learning Transformers architectures for
high-frequency Bitcoin-USDT log-return forecasting and compares them to the
traditional Long Short-Term Memory models. A hybrid Transformer model, called
\textbf{HFformer}, is then introduced for time series forecasting which
incorporates a Transformer encoder, linear decoder, spiking activations, and
quantile loss function, and does not use position encoding. Furthermore,
possible high-frequency trading strategies for use with the HFformer model are
discussed, including trade sizing, trading signal aggregation, and minimal
trading threshold. Ultimately, the performance of the HFformer and Long
Short-Term Memory models are assessed and results indicate that the HFformer
achieves a higher cumulative PnL than the LSTM when trading with multiple
signals during backtesting.
- Abstract(参考訳): 本稿では,高頻度bitcoin-usdtログリターン予測のための新しいディープラーニングトランスフォーマーアーキテクチャについて検討し,従来の長期記憶モデルと比較する。
その後、変圧器エンコーダ、線形デコーダ、スパイキングアクティベーション、分位損失関数を内蔵し、位置エンコーディングを使用しない時系列予測のために、ハイブリッドトランスフォーマモデルが導入された。
さらに,貿易規模,取引信号集約,取引閾値の最小化など,HFformerモデルを用いた高周波取引戦略についても論じる。
最終的に、HFformerおよびLong Short-Term Memoryモデルの性能を評価し、その結果、HFformerは、バックテスト中に複数の信号と交換する際にLSTMよりも高い累積PnLを達成することを示す。
関連論文リスト
- Functional Interpolation for Relative Positions Improves Long Context
Transformers [86.12843093589]
本稿では,より長いコンテキストに変換器の一般化を改善するために,プログレッシブなFIREを用いた関数的相対的位置符号化を提案する。
理論的には、これはT5のRPE、Alibi、Kerpleなどの一般的な相対的な位置エンコーディングのいくつかを表現できる。
FIREモデルは、ゼロショット言語モデリングと長文ベンチマークの両方において、より長い文脈での一般化がより優れていることを示す。
論文 参考訳(メタデータ) (2023-10-06T17:59:11Z) - Transformers versus LSTMs for electronic trading [0.0]
本研究では,Transformerベースのモデルが金融時系列予測に適用可能か,LSTMに勝るかを検討する。
DLSTMと呼ばれるLSTMベースの新しいモデルを構築し、Transformerベースのモデルのための新しいアーキテクチャは、財務予測に適応するように設計されている。
実験結果は,Transformerベースのモデルが絶対価格列予測において限られた優位性しか持たないことを反映している。
論文 参考訳(メタデータ) (2023-09-20T15:25:43Z) - U-shaped Transformer: Retain High Frequency Context in Time Series
Analysis [0.5710971447109949]
本稿では,変圧器の低域特性を考察し,その利点を取り入れようと試みる。
パッチマージと分割操作を導入し、異なるスケールの機能を抽出し、より大きなデータセットを使用してトランスフォーマーバックボーンを完全に活用する。
実験により、比較的低コストで複数のデータセットをまたいだ高度なレベルでモデルが動作できることが実証された。
論文 参考訳(メタデータ) (2023-07-18T07:15:26Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Learning Spatial-Frequency Transformer for Visual Object Tracking [15.750739748843744]
最近のトラッカーはTransformerを採用して、広く使われているResNetを新しいバックボーンネットワークとして組み合わせたり置き換えたりしている。
これらの操作は、ターゲットオブジェクトの空間的先行を無視し、最適以下の結果をもたらす可能性があると信じている。
本稿では,GPHA(Spatial Prior and High- frequency emphasis Attention)を同時にモデル化した空間周波数変換器を提案する。
論文 参考訳(メタデータ) (2022-08-18T13:46:12Z) - CLMFormer: Mitigating Data Redundancy to Revitalize Transformer-based
Long-Term Time Series Forecasting System [46.39662315849883]
時系列予測(LTSF)は,様々な応用において重要な役割を担っている。
既存のTransformerベースのモデルであるFedformerやInformerは、いくつかのエポックの後、検証セット上で最高のパフォーマンスを達成することが多い。
本稿では,カリキュラム学習とメモリ駆動デコーダの導入により,この問題に対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-07-16T04:05:15Z) - Inception Transformer [151.939077819196]
インセプショントランスフォーマー(iFormer)は、視覚データ中の高周波数情報と低周波情報の両方で包括的特徴を学習する。
我々は、iFormerを一連の視覚タスクでベンチマークし、画像分類、COCO検出、ADE20Kセグメンテーションにおいて優れた性能を発揮することを示した。
論文 参考訳(メタデータ) (2022-05-25T17:59:54Z) - Error Correction Code Transformer [92.10654749898927]
本稿では,トランスフォーマーアーキテクチャを任意のブロック長で線形符号のソフトデコードに拡張することを提案する。
我々は,各チャネルの出力次元を高次元に符号化し,個別に処理すべきビット情報のより良い表現を行う。
提案手法は、トランスフォーマーの極端なパワーと柔軟性を示し、既存の最先端のニューラルデコーダを、その時間的複雑さのごく一部で大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-03-27T15:25:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。