論文の概要: Trading with the Momentum Transformer: An Intelligent and Interpretable
Architecture
- arxiv url: http://arxiv.org/abs/2112.08534v1
- Date: Thu, 16 Dec 2021 00:04:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-17 14:53:05.168744
- Title: Trading with the Momentum Transformer: An Intelligent and Interpretable
Architecture
- Title(参考訳): Momentum Transformerによる取引 - インテリジェントで解釈可能なアーキテクチャ
- Authors: Kieran Wood, Sven Giegerich, Stephen Roberts, Stefan Zohren
- Abstract要約: 我々は、ベンチマークを上回るアテンションベースのアーキテクチャであるMomentum Transformerを紹介した。
注意パターンの顕著な構造を観察し,運動量回転点における重要なピークを観測した。
解釈可能な変数選択ネットワークを追加することで、PDは日々のリターンデータに基づいて、モデルがトレーディングから遠ざけるのにどう役立つかを観察する。
- 参考スコア(独自算出の注目度): 2.580765958706854
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning architectures, specifically Deep Momentum Networks (DMNs)
[1904.04912], have been found to be an effective approach to momentum and
mean-reversion trading. However, some of the key challenges in recent years
involve learning long-term dependencies, degradation of performance when
considering returns net of transaction costs and adapting to new market
regimes, notably during the SARS-CoV-2 crisis. Attention mechanisms, or
Transformer-based architectures, are a solution to such challenges because they
allow the network to focus on significant time steps in the past and
longer-term patterns. We introduce the Momentum Transformer, an attention-based
architecture which outperforms the benchmarks, and is inherently interpretable,
providing us with greater insights into our deep learning trading strategy. Our
model is an extension to the LSTM-based DMN, which directly outputs position
sizing by optimising the network on a risk-adjusted performance metric, such as
Sharpe ratio. We find an attention-LSTM hybrid Decoder-Only Temporal Fusion
Transformer (TFT) style architecture is the best performing model. In terms of
interpretability, we observe remarkable structure in the attention patterns,
with significant peaks of importance at momentum turning points. The time
series is thus segmented into regimes and the model tends to focus on previous
time-steps in alike regimes. We find changepoint detection (CPD) [2105.13727],
another technique for responding to regime change, can complement multi-headed
attention, especially when we run CPD at multiple timescales. Through the
addition of an interpretable variable selection network, we observe how CPD
helps our model to move away from trading predominantly on daily returns data.
We note that the model can intelligently switch between, and blend, classical
strategies - basing its decision on patterns in the data.
- Abstract(参考訳): ディープラーニングアーキテクチャ、特にDeep Momentum Networks (DMNs) [1904.04912]は、運動量と平均回帰取引に対する効果的なアプローチであることがわかった。
しかし、近年の主な課題は、長期依存の学習、取引コストのリターンを考える際のパフォーマンスの低下、特にsars-cov-2危機における新しい市場体制への適応などである。
アテンションメカニズム、あるいはトランスフォーマーベースのアーキテクチャは、ネットワークが過去と長期的なパターンにおいて重要な時間ステップに集中できるため、このような課題の解決策となります。
私たちは、ベンチマークを上回り、本質的に解釈可能な注意に基づくアーキテクチャであるmomentum transformerを導入し、ディープラーニングのトレーディング戦略に関する深い洞察を提供します。
我々のモデルはLSTMに基づくDMNの拡張であり、シャープ比のようなリスク調整された性能指標に基づいてネットワークを最適化することで位置サイズを直接出力する。
注意-LSTMハイブリッドDecoder-Only Temporal Fusion Transformer (TFT)スタイルのアーキテクチャが最高のパフォーマンスモデルである。
解釈可能性の観点からは、モーメント・ターンポイントにおいて重要なピークを持つ注意パターンの顕著な構造を観察する。
したがって、時系列はレジームに区分され、モデルは同じレジームで以前の時間ステップにフォーカスする傾向がある。
変化点検出(CPD) [2105.13727] は、体制変更に対応する別の手法であり、特に複数の時間スケールでCDDを実行する場合、多面的な注意を補うことができる。
解釈可能な可変選択ネットワークの追加を通じて、cpdが私たちのモデルが日々のリターンデータに主に依存する取引から離れるのをいかに助けるかを観察します。
モデルは、データ内のパターンに基づいて、古典的な戦略をインテリジェントに切り替え、組み合わせることができることに留意する。
関連論文リスト
- Todyformer: Towards Holistic Dynamic Graph Transformers with
Structure-Aware Tokenization [6.799413002613627]
Todyformerは、動的グラフに適したトランスフォーマーベースのニューラルネットワークである。
メッセージパッシングニューラルネットワーク(MPNN)のローカルエンコーディング能力とトランスフォーマーのグローバルエンコーディング能力を統合する。
Todyformerは、ダウンストリームタスクの最先端メソッドよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2024-02-02T23:05:30Z) - Rethinking Urban Mobility Prediction: A Super-Multivariate Time Series
Forecasting Approach [71.67506068703314]
長期の都市移動予測は、都市施設やサービスの効果的管理において重要な役割を担っている。
伝統的に、都市移動データはビデオとして構成され、経度と緯度を基本的なピクセルとして扱う。
本研究では,都市におけるモビリティ予測の新たな視点について紹介する。
都市移動データを従来のビデオデータとして単純化するのではなく、複雑な時系列と見なす。
論文 参考訳(メタデータ) (2023-12-04T07:39:05Z) - Copula Variational LSTM for High-dimensional Cross-market Multivariate
Dependence Modeling [46.75628526959982]
我々は、変分連続ニューラルネットワークとコプラに基づく依存モデルを統合するための最初の試みを行う。
我々の変分ニューラルネットワークWPVC-VLSTMは時系列の連続的依存度と構造をモデル化する。
これは、線形モデル、ボラティリティモデル、ディープニューラルネットワーク、市場横断ポートフォリオ予測における変動リカレントネットワークなど、ベンチマークを上回っている。
論文 参考訳(メタデータ) (2023-05-09T08:19:08Z) - Global-to-Local Modeling for Video-based 3D Human Pose and Shape
Estimation [53.04781510348416]
フレーム内精度とフレーム間スムーズさにより,映像に基づく3次元人間のポーズと形状推定を評価する。
エンドツーエンドフレームワークGLoT(Global-to-Local Transformer)における長期的・短期的相関のモデル化を構造的に分離することを提案する。
我々のGLoTは、一般的なベンチマーク(3DPW、MPI-INF-3DHP、Human3.6M)において、最も低いモデルパラメータを持つ従来の最先端の手法を上回る。
論文 参考訳(メタデータ) (2023-03-26T14:57:49Z) - Stock Trend Prediction: A Semantic Segmentation Approach [3.718476964451589]
完全2次元畳み込みエンコーダデコーダを用いた長期株価変動傾向の予測手法を提案する。
我々のCNNの階層構造は、長期的・短期的な関係を効果的に捉えることができる。
論文 参考訳(メタデータ) (2023-03-09T01:29:09Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - Augmented Bilinear Network for Incremental Multi-Stock Time-Series
Classification [83.23129279407271]
本稿では,有価証券のセットで事前学習したニューラルネットワークで利用可能な知識を効率的に保持する手法を提案する。
本手法では,既存の接続を固定することにより,事前学習したニューラルネットワークに符号化された事前知識を維持する。
この知識は、新しいデータを用いて最適化された一連の拡張接続によって、新しい証券に対して調整される。
論文 参考訳(メタデータ) (2022-07-23T18:54:10Z) - Detecting and adapting to crisis pattern with context based Deep
Reinforcement Learning [6.224519494738852]
本稿では、2つのサブネットワークで構成された革新的なDRLフレームワークを提案する。
テストセットの結果、このアプローチはMarkowitzのような従来のポートフォリオ最適化手法を大幅に上回っており、現在のCovidのような危機を検出し予測することができる。
論文 参考訳(メタデータ) (2020-09-07T12:11:08Z) - On Robustness and Transferability of Convolutional Neural Networks [147.71743081671508]
現代の深層畳み込みネットワーク(CNN)は、分散シフトの下で一般化しないとしてしばしば批判される。
現代画像分類CNNにおける分布外と転送性能の相互作用を初めて検討した。
トレーニングセットとモデルサイズを増大させることで、分散シフトロバスト性が著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-16T18:39:04Z) - Deep Stock Predictions [58.720142291102135]
本稿では,Long Short Term Memory (LSTM) ニューラルネットワークを用いてポートフォリオ最適化を行うトレーディング戦略の設計について考察する。
次に、LSTMのトレーニングに使用する損失関数をカスタマイズし、利益を上げる。
カスタマイズされた損失関数を持つLSTMモデルは、ARIMAのような回帰ベースライン上でのトレーニングボットの性能を向上させる。
論文 参考訳(メタデータ) (2020-06-08T23:37:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。