論文の概要: Generative AI for End-to-End Limit Order Book Modelling: A Token-Level
Autoregressive Generative Model of Message Flow Using a Deep State Space
Network
- arxiv url: http://arxiv.org/abs/2309.00638v1
- Date: Wed, 23 Aug 2023 09:37:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-10 03:57:27.693051
- Title: Generative AI for End-to-End Limit Order Book Modelling: A Token-Level
Autoregressive Generative Model of Message Flow Using a Deep State Space
Network
- Title(参考訳): エンド・ツー・エンド限界順序ブックモデリングのための生成AI:ディープ・ステート・スペース・ネットワークを用いたメッセージフローのトーケンレベル自己回帰生成モデル
- Authors: Peer Nagy, Sascha Frey, Silvia Sapora, Kang Li, Anisoara Calinescu,
Stefan Zohren, Jakob Foerster
- Abstract要約: 本稿では,トークン化制限順序帳(LOB)メッセージを生成するエンドツーエンドの自動回帰生成モデルを提案する。
NASDAQ の株式 LOB を用いて、メッセージデータのためのカスタムトークン化器を開発し、逐次桁の群をトークンに変換する。
結果は,低モデルパープレキシティによって証明されたように,データの分布を近似する上で有望な性能を示す。
- 参考スコア(独自算出の注目度): 7.54290390842336
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Developing a generative model of realistic order flow in financial markets is
a challenging open problem, with numerous applications for market participants.
Addressing this, we propose the first end-to-end autoregressive generative
model that generates tokenized limit order book (LOB) messages. These messages
are interpreted by a Jax-LOB simulator, which updates the LOB state. To handle
long sequences efficiently, the model employs simplified structured state-space
layers to process sequences of order book states and tokenized messages. Using
LOBSTER data of NASDAQ equity LOBs, we develop a custom tokenizer for message
data, converting groups of successive digits to tokens, similar to tokenization
in large language models. Out-of-sample results show promising performance in
approximating the data distribution, as evidenced by low model perplexity.
Furthermore, the mid-price returns calculated from the generated order flow
exhibit a significant correlation with the data, indicating impressive
conditional forecast performance. Due to the granularity of generated data, and
the accuracy of the model, it offers new application areas for future work
beyond forecasting, e.g. acting as a world model in high-frequency financial
reinforcement learning applications. Overall, our results invite the use and
extension of the model in the direction of autoregressive large financial
models for the generation of high-frequency financial data and we commit to
open-sourcing our code to facilitate future research.
- Abstract(参考訳): 金融市場における現実的な注文フローのジェネレーティブなモデルの開発は、市場参加者に多くのアプリケーションを提供しながら、難しいオープン問題である。
そこで我々は,トークン化された制限順序書(lob)メッセージを生成する最初のエンドツーエンドの自己回帰生成モデルを提案する。
これらのメッセージは、LOB状態を更新するJax-LOBシミュレータによって解釈される。
長いシーケンスを効率的に扱うために、モデルは単純な構造化状態空間層を使用して、順序帳状態とトークン化されたメッセージのシーケンスを処理する。
本研究では,NASDAQ エクイティLOBのLOBSTERデータを用いて,大規模言語モデルにおけるトークン化と同様の,逐次桁の群をトークンに変換する,メッセージデータ用のカスタムトークン化器を開発する。
サンプル外の結果、データ分布を近似する有望な性能が示され、モデルの過度さが証明された。
さらに、生成した順序流から算出した中間値のリターンは、データと有意な相関を示し、印象的な条件予測性能を示す。
生成データの粒度とモデルの精度により、例えば、高周波金融強化学習アプリケーションにおける世界モデルとして振る舞うような予測を超えて、将来の作業のための新しい応用領域を提供する。
全体として、当社では、高周波金融データ生成のための自己回帰型大規模金融モデル(autoregressive large financial model)の方向性として、このモデルの使用と拡張を推奨しています。
関連論文リスト
- LOB-Bench: Benchmarking Generative AI for Finance - an Application to Limit Order Book Data [7.317765812144531]
本稿では,リミテッド・オーダー・ブック(LOB)における生成メッセージ・バイ・オーダーデータの品質と現実性を評価するためのベンチマークを提案する。
本フレームワークは,実LOBデータと実LOBデータ間の条件および非条件統計量の分布差を計測する。
ベンチマークには、スプレッド、オーダーブックボリューム、オーダー不均衡、メッセージ間の時間といった一般的なLOB統計情報も含まれている。
論文 参考訳(メタデータ) (2025-02-13T10:56:58Z) - Synthetic Data for Portfolios: A Throw of the Dice Will Never Abolish Chance [0.0]
本稿では、特にポートフォリオやリスクマネジメントにおいて、生成モデルの限界についてより深く理解することを目的としている。
私たちは、モデル開発の分離不能な性質と、パラドックスに触れることで望ましいユースケースを強調します。
論文 参考訳(メタデータ) (2025-01-07T18:50:24Z) - Beyond Tree Models: A Hybrid Model of KAN and gMLP for Large-Scale Financial Tabular Data [28.34587057844627]
TKGMLPは、浅いコルモゴロフ・アーノルドネットワークとGated Multilayer Perceptronを組み合わせた表型データのためのハイブリッドネットワークである。
我々は、TKGMLPを現実の信用スコアデータセットで検証し、最先端の結果を達成し、現在のベンチマークより優れています。
本稿では,財務データセットにおける数値的特徴の優位性に対処するために,数値的データのための新しい特徴符号化手法を提案する。
論文 参考訳(メタデータ) (2024-12-03T02:38:07Z) - COrAL: Order-Agnostic Language Modeling for Efficient Iterative Refinement [80.18490952057125]
反復改良は、複雑なタスクにおける大規模言語モデル(LLM)の能力を高める効果的なパラダイムとして登場した。
我々はこれらの課題を克服するために、コンテキストワイズ順序非依存言語モデリング(COrAL)を提案する。
当社のアプローチでは、管理可能なコンテキストウィンドウ内で複数のトークン依存関係をモデル化しています。
論文 参考訳(メタデータ) (2024-10-12T23:56:19Z) - F-FOMAML: GNN-Enhanced Meta-Learning for Peak Period Demand Forecasting with Proxy Data [65.6499834212641]
本稿では,需要予測をメタラーニング問題として定式化し,F-FOMAMLアルゴリズムを開発した。
タスク固有のメタデータを通してドメインの類似性を考慮することにより、トレーニングタスクの数が増加するにつれて過剰なリスクが減少する一般化を改善した。
従来の最先端モデルと比較して,本手法では需要予測精度が著しく向上し,内部自動販売機データセットでは平均絶対誤差が26.24%,JD.comデータセットでは1.04%削減された。
論文 参考訳(メタデータ) (2024-06-23T21:28:50Z) - Advancing Anomaly Detection: Non-Semantic Financial Data Encoding with LLMs [49.57641083688934]
本稿では,Large Language Models (LLM) 埋め込みを用いた財務データにおける異常検出の新しい手法を提案する。
実験により,LLMが異常検出に有用な情報をもたらし,モデルがベースラインを上回っていることが確認された。
論文 参考訳(メタデータ) (2024-06-05T20:19:09Z) - TokenUnify: Scalable Autoregressive Visual Pre-training with Mixture Token Prediction [61.295716741720284]
TokenUnifyは、ランダムトークン予測、次のトークン予測、次のトークン予測を統合する新しい事前学習手法である。
TokenUnifyと共同で,超高解像度の大規模電子顕微鏡画像データセットを構築した。
このデータセットには1億2000万以上の注釈付きボクセルが含まれており、これまでで最大のニューロンセグメンテーションデータセットとなっている。
論文 参考訳(メタデータ) (2024-05-27T05:45:51Z) - Data-efficient Large Vision Models through Sequential Autoregression [58.26179273091461]
限られたデータセットに基づいて,効率的な自己回帰に基づく視覚モデルを構築する。
このモデルは,高レベル・低レベルのセマンティック理解の両方にまたがる視覚的タスクにおいて,その習熟度をいかに達成するかを実証する。
我々の経験的評価は、モデルが様々なタスクに適応する際の機敏さを強調し、パラメータフットプリントの大幅な削減を図った。
論文 参考訳(メタデータ) (2024-02-07T13:41:53Z) - Towards a Foundation Purchasing Model: Pretrained Generative
Autoregression on Transaction Sequences [0.0]
本稿では,金融取引の文脈的埋め込みを得るための生成事前学習手法を提案する。
さらに,510億の取引を含む180の発行銀行のデータコーパスを用いて,埋め込みモデルの大規模事前学習を行う。
論文 参考訳(メタデータ) (2024-01-03T09:32:48Z) - The LOB Recreation Model: Predicting the Limit Order Book from TAQ
History Using an Ordinary Differential Equation Recurrent Neural Network [9.686252465354274]
LOBレクリエーションモデルは,小額株の公開制限注文書(LOB)のトップ5価格レベルを再現するための,ディープラーニングの観点からの最初の試みである。
トランスファーラーニングのパラダイムにより、同じクラスの他の金融資産に適用できるように、ある株式で訓練されたソースモデルを微調整することができる。
論文 参考訳(メタデータ) (2021-03-02T12:07:43Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。