論文の概要: LOBERT: Generative AI Foundation Model for Limit Order Book Messages
- arxiv url: http://arxiv.org/abs/2511.12563v1
- Date: Sun, 16 Nov 2025 11:42:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.376795
- Title: LOBERT: Generative AI Foundation Model for Limit Order Book Messages
- Title(参考訳): LOBERT: 制限順序ブックメッセージのための生成AIファンデーションモデル
- Authors: Eljas Linna, Kestutis Baltakys, Alexandros Iosifidis, Juho Kanniainen,
- Abstract要約: LOBERTは,金融リミットオーダーブック(LOB)データのための汎用エンコーダのみの基盤モデルである。
LOBERTは、完全な多次元メッセージを単一トークンとして扱う新しいトークン化スキームを使用して、LOBデータに独自のBERTアーキテクチャを適用する。
これらの手法により、LOBRTは、中間価格の動きや次のメッセージの予測などのタスクにおいて、主要なパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 52.54676013594764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modeling the dynamics of financial Limit Order Books (LOB) at the message level is challenging due to irregular event timing, rapid regime shifts, and the reactions of high-frequency traders to visible order flow. Previous LOB models require cumbersome data representations and lack adaptability outside their original tasks, leading us to introduce LOBERT, a general-purpose encoder-only foundation model for LOB data suitable for downstream fine-tuning. LOBERT adapts the original BERT architecture for LOB data by using a novel tokenization scheme that treats complete multi-dimensional messages as single tokens while retaining continuous representations of price, volume, and time. With these methods, LOBERT achieves leading performance in tasks such as predicting mid-price movements and next messages, while reducing the required context length compared to previous methods.
- Abstract(参考訳): メッセージレベルでの金融リミットオーダーブック(LOB)のダイナミクスのモデル化は、不規則なイベントタイミング、急激なレジームシフト、および高頻度トレーダーの可視的な注文フローに対する反応のために困難である。
従来のLOBモデルは、データ表現が煩雑で、元のタスク以外では適応性が欠如していたため、下流の微調整に適したLOBデータのための汎用エンコーダのみの基盤モデルであるLOBRTを導入しました。
LOBERTは、完全な多次元メッセージを単一トークンとして扱いながら、価格、ボリューム、時間の連続的な表現を保持する新しいトークン化スキームを使用して、LOBデータに独自のBERTアーキテクチャを適用する。
これらの手法により、LOBRTは、中間価格の動きや次のメッセージの予測などのタスクにおいて、従来の方法と比較して必要なコンテキスト長を削減しながら、主要なパフォーマンスを達成する。
関連論文リスト
- Exploring Microstructural Dynamics in Cryptocurrency Limit Order Books: Better Inputs Matter More Than Stacking Another Hidden Layer [9.2463347238923]
ニューラルネットワークに余分な隠蔽層やパラメータを追加することで、短期的な価格予測が真に向上するかどうかを検討することを目的としている。
我々は,BTC/USDT LOBスナップショットを100ミリ秒から複数秒間隔で公開して,解釈可能なベースライン,ロジスティック回帰,XGBoostからディープアーキテクチャ(DeepLOB,Conv1D+LSTM)まで,モデルをベンチマークする。
論文 参考訳(メタデータ) (2025-06-06T05:43:30Z) - LOB-Bench: Benchmarking Generative AI for Finance -- an Application to Limit Order Book Data [7.317765812144531]
本稿では,リミテッド・オーダー・ブック(LOB)における生成メッセージ・バイ・オーダーデータの品質と現実性を評価するためのベンチマークを提案する。
本フレームワークは,実LOBデータと実LOBデータ間の条件および非条件統計量の分布差を計測する。
ベンチマークには、スプレッド、オーダーブックボリューム、オーダー不均衡、メッセージ間の時間といった一般的なLOB統計情報も含まれている。
論文 参考訳(メタデータ) (2025-02-13T10:56:58Z) - Generative AI for End-to-End Limit Order Book Modelling: A Token-Level
Autoregressive Generative Model of Message Flow Using a Deep State Space
Network [7.54290390842336]
本稿では,トークン化制限順序帳(LOB)メッセージを生成するエンドツーエンドの自動回帰生成モデルを提案する。
NASDAQ の株式 LOB を用いて、メッセージデータのためのカスタムトークン化器を開発し、逐次桁の群をトークンに変換する。
結果は,低モデルパープレキシティによって証明されたように,データの分布を近似する上で有望な性能を示す。
論文 参考訳(メタデータ) (2023-08-23T09:37:22Z) - The Limit Order Book Recreation Model (LOBRM): An Extended Analysis [2.0305676256390934]
マイクロ構造秩序書(LOB)は、金融資産の細かな先進需要と供給関係を描いている。
LOBRMは最近、貿易と引用(TAQ)データからLOBを合成することで、このギャップを埋めることを提案した。
我々はLOBRMの研究を拡張し、実世界のアプリケーションシナリオでの利用をさらに検証する。
論文 参考訳(メタデータ) (2021-07-01T15:25:21Z) - TR-BERT: Dynamic Token Reduction for Accelerating BERT Inference [54.791572981834435]
既存の訓練済み言語モデル(PLM)は推論において計算コストがかかることが多い。
TR-BERT と呼ばれる PLM の推論を高速化する動的トークン削減手法を提案する。
TR-BERTは、トークン削減プロセスを多段階のトークン選択問題として定式化し、強化学習を通じて選択戦略を自動的に学習する。
論文 参考訳(メタデータ) (2021-05-25T02:28:51Z) - The LOB Recreation Model: Predicting the Limit Order Book from TAQ
History Using an Ordinary Differential Equation Recurrent Neural Network [9.686252465354274]
LOBレクリエーションモデルは,小額株の公開制限注文書(LOB)のトップ5価格レベルを再現するための,ディープラーニングの観点からの最初の試みである。
トランスファーラーニングのパラダイムにより、同じクラスの他の金融資産に適用できるように、ある株式で訓練されたソースモデルを微調整することができる。
論文 参考訳(メタデータ) (2021-03-02T12:07:43Z) - Students Need More Attention: BERT-based AttentionModel for Small Data
with Application to AutomaticPatient Message Triage [65.7062363323781]
BioBERT (Bidirectional Representations from Transformers for Biomedical Text Mining) に基づく新しいフレームワークを提案する。
LESA-BERTと呼ぶBERTの各層にラベル埋め込みを導入し、(ii)LESA-BERTを小さな変種に蒸留することにより、小さなデータセットで作業する際のオーバーフィッティングとモデルサイズを低減することを目指す。
アプリケーションとして,本フレームワークを用いて,患者ポータルメッセージトリアージのモデルを構築し,メッセージの緊急度を非緊急度,中度度,緊急度という3つのカテゴリに分類する。
論文 参考訳(メタデータ) (2020-06-22T03:39:00Z) - POINTER: Constrained Progressive Text Generation via Insertion-based
Generative Pre-training [93.79766670391618]
ハードコントラストテキスト生成のための新しい挿入ベースアプローチであるPOINTERを提案する。
提案手法は,既存のトークン間で段階的に新しいトークンを並列に挿入することによって動作する。
結果として生じる粗大な階層構造は、生成プロセスを直感的で解釈可能である。
論文 参考訳(メタデータ) (2020-05-01T18:11:54Z) - Towards Minimal Supervision BERT-based Grammar Error Correction [81.90356787324481]
我々は、事前訓練された言語モデルからコンテキスト情報を取り入れて、アノテーションを活用し、多言語シナリオの恩恵を得ようとしている。
その結果、文法的誤り訂正タスクにおいて、変換器(BERT)からの双方向表現の強い可能性を示す。
論文 参考訳(メタデータ) (2020-01-10T15:45:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。