論文の概要: Axial-LOB: High-Frequency Trading with Axial Attention
- arxiv url: http://arxiv.org/abs/2212.01807v1
- Date: Sun, 4 Dec 2022 12:11:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 19:02:57.926419
- Title: Axial-LOB: High-Frequency Trading with Axial Attention
- Title(参考訳): Axial-LOB: Axial Attention を用いた高周波取引
- Authors: Damian Kisiel, Denise Gorse
- Abstract要約: Axial-LOBは、リミットオーダーブック(LOB)データから在庫の価格変動を予測するための、完全に意図したディープラーニングアーキテクチャである。
我々のアーキテクチャは、グローバルな相互作用を取り入れた特徴マップを構築することができ、パラメータ空間のサイズを大幅に削減できる。
Axial-LOBの有効性は、数百万の高周波取引イベントの時系列表現を含む大規模なベンチマークデータセットで実証されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous attempts to predict stock price from limit order book (LOB) data are
mostly based on deep convolutional neural networks. Although convolutions offer
efficiency by restricting their operations to local interactions, it is at the
cost of potentially missing out on the detection of long-range dependencies.
Recent studies address this problem by employing additional recurrent or
attention layers that increase computational complexity. In this work, we
propose Axial-LOB, a novel fully-attentional deep learning architecture for
predicting price movements of stocks from LOB data. By utilizing gated
position-sensitive axial attention layers our architecture is able to construct
feature maps that incorporate global interactions, while significantly reducing
the size of the parameter space. Unlike previous works, Axial-LOB does not rely
on hand-crafted convolutional kernels and hence has stable performance under
input permutations and the capacity to incorporate additional LOB features. The
effectiveness of Axial-LOB is demonstrated on a large benchmark dataset,
containing time series representations of millions of high-frequency trading
events, where our model establishes a new state of the art, achieving an
excellent directional classification performance at all tested prediction
horizons.
- Abstract(参考訳): 制限順序帳(LOB)データから株価を予測しようとする以前の試みは、主に深層畳み込みニューラルネットワークに基づいている。
畳み込みは、操作をローカルなインタラクションに制限することで効率性を提供するが、長距離の依存関係の検出を欠く可能性がある。
近年の研究では、計算複雑性を増大させる再帰層や注意層を用いることでこの問題に対処している。
本研究では,LOBデータから在庫の価格変動を予測するための,完全意図型ディープラーニングアーキテクチャであるAxial-LOBを提案する。
ゲート位置感応性アキシャルアテンションレイヤを利用することで、我々のアーキテクチャはグローバルな相互作用を取り入れた特徴マップを構築することができ、パラメータ空間のサイズを著しく削減することができる。
以前の研究とは異なり、Axial-LOBは手作りの畳み込みカーネルに依存しておらず、入力の順応の下で安定した性能と追加のLOB機能を組み込む能力を持っている。
Axial-LOBの有効性は、数百万の高周波取引イベントの時系列表現を含む大規模なベンチマークデータセット上で実証され、そこでは、我々のモデルが新しい技術の状態を確立し、テストされた全ての予測地平線における優れた方向分類性能を達成する。
関連論文リスト
- Influence Maximization via Graph Neural Bandits [54.45552721334886]
IM問題を多ラウンド拡散キャンペーンに設定し,影響を受けやすいユーザ数を最大化することを目的とした。
IM-GNB(Influence Maximization with Graph Neural Bandits)を提案する。
論文 参考訳(メタデータ) (2024-06-18T17:54:33Z) - SFANet: Spatial-Frequency Attention Network for Weather Forecasting [54.470205739015434]
天気予報は様々な分野において重要な役割を担い、意思決定とリスク管理を推進している。
伝統的な手法は、しばしば気象系の複雑な力学を捉えるのに苦労する。
本稿では,これらの課題に対処し,天気予報の精度を高めるための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-05-29T08:00:15Z) - IB-AdCSCNet:Adaptive Convolutional Sparse Coding Network Driven by Information Bottleneck [4.523653503622693]
IB-AdCSCNetは情報ボトルネック理論に基づくディープラーニングモデルである。
IB-AdCSCNetは、情報ボトルネックトレードオフ戦略をディープネットワークにシームレスに統合する。
CIFAR-10とCIFAR-100データセットの実験結果は、IB-AdCSCNetが深い残差畳み込みネットワークの性能にマッチするだけでなく、破損したデータを扱う際の性能も優れていることを示した。
論文 参考訳(メタデータ) (2024-05-23T05:35:57Z) - Spatio-Temporal Attention Graph Neural Network for Remaining Useful Life
Prediction [1.831835396047386]
本研究では,時空間注意グラフニューラルネットワークを提案する。
本モデルでは,空間的・時間的特徴抽出のために,グラフニューラルネットワークと時間的畳み込みニューラルネットワークを組み合わせる。
C-MAPSSデータセットを用いて、クラスタリング正規化とクラスタリング正規化の影響を評価するための総合的な実験を行った。
論文 参考訳(メタデータ) (2024-01-29T08:49:53Z) - A Generative Self-Supervised Framework using Functional Connectivity in
fMRI Data [15.211387244155725]
機能的磁気共鳴イメージング(fMRI)データから抽出した機能的接続性(FC)ネットワークを訓練したディープニューラルネットワークが人気を博している。
グラフニューラルネットワーク(GNN)のFCへの適用に関する最近の研究は、FCの時間変化特性を活用することにより、モデル予測の精度と解釈可能性を大幅に向上させることができることを示唆している。
高品質なfMRIデータとそれに対応するラベルを取得するための高コストは、実環境において彼らのアプリケーションにハードルをもたらす。
本研究では,動的FC内の時間情報を効果的に活用するためのSSL生成手法を提案する。
論文 参考訳(メタデータ) (2023-12-04T16:14:43Z) - Graph Neural Processes for Spatio-Temporal Extrapolation [36.01312116818714]
グラフ内の周囲のコンテキストから対象地点のデータを生成する補間時間プロセスのタスクについて検討する。
既存の手法では、ニューラルネットワークのような学習に精通したモデルや、ガウスのような統計的アプローチが使用されている。
本稿では,これらの機能を同時に制御するニューラル潜在変数モデルであるスポースグラフニューラル・プロセス(STGNP)を提案する。
論文 参考訳(メタデータ) (2023-05-30T03:55:37Z) - Dense Network Expansion for Class Incremental Learning [61.00081795200547]
最先端のアプローチでは、ネットワーク拡張(NE)に基づいた動的アーキテクチャを使用し、タスクごとにタスクエキスパートを追加する。
精度とモデル複雑性のトレードオフを改善するために,新しい NE 手法である高密度ネットワーク拡張 (DNE) を提案する。
従来のSOTA法では、類似またはより小さなモデルスケールで、精度の点で4%のマージンで性能が向上した。
論文 参考訳(メタデータ) (2023-03-22T16:42:26Z) - Efficient Graph Neural Network Inference at Large Scale [54.89457550773165]
グラフニューラルネットワーク(GNN)は、幅広いアプリケーションで優れた性能を示している。
既存のスケーラブルなGNNは、線形伝搬を利用して特徴を前処理し、トレーニングと推論の手順を高速化する。
本稿では,そのトポロジ情報に基づいて各ノードに対してパーソナライズされた伝搬順序を生成する適応的伝搬順序法を提案する。
論文 参考訳(メタデータ) (2022-11-01T14:38:18Z) - The Limit Order Book Recreation Model (LOBRM): An Extended Analysis [2.0305676256390934]
マイクロ構造秩序書(LOB)は、金融資産の細かな先進需要と供給関係を描いている。
LOBRMは最近、貿易と引用(TAQ)データからLOBを合成することで、このギャップを埋めることを提案した。
我々はLOBRMの研究を拡張し、実世界のアプリケーションシナリオでの利用をさらに検証する。
論文 参考訳(メタデータ) (2021-07-01T15:25:21Z) - Channelized Axial Attention for Semantic Segmentation [70.14921019774793]
チャネルアキシャルアテンション(CAA)を提案し、チャネルアテンションと軸アテンションをシームレスに統合し、計算複雑性を低減します。
私たちのCAAは、DANetのような他の注意モデルに比べて計算リソースをはるかに少なくするだけでなく、すべての検証済みデータセット上で最先端のResNet-101ベースのセグメンテーションモデルよりも優れています。
論文 参考訳(メタデータ) (2021-01-19T03:08:03Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。