論文の概要: Representation Learning of Limit Order Book: A Comprehensive Study and Benchmarking
- arxiv url: http://arxiv.org/abs/2505.02139v1
- Date: Sun, 04 May 2025 15:00:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.446614
- Title: Representation Learning of Limit Order Book: A Comprehensive Study and Benchmarking
- Title(参考訳): 限界順序書の表現学習 : 総合的研究とベンチマーク
- Authors: Muyao Zhong, Yushi Lin, Peng Yang,
- Abstract要約: 限界秩序書(LOB)は市場ダイナミクスの詳細なビューを提供する。
既存のアプローチはしばしば、エンド・ツー・エンドの方法で特定の下流タスクによる表現学習を密に結合する。
我々は、実際の中国のAシェア市場データを標準化したベンチマークであるLOBenchを紹介し、キュレートされたデータセット、統一された前処理、一貫した評価指標、強力なベースラインを提供する。
- 参考スコア(独自算出の注目度): 3.94375691568608
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Limit Order Book (LOB), the mostly fundamental data of the financial market, provides a fine-grained view of market dynamics while poses significant challenges in dealing with the esteemed deep models due to its strong autocorrelation, cross-feature constrains, and feature scale disparity. Existing approaches often tightly couple representation learning with specific downstream tasks in an end-to-end manner, failed to analyze the learned representations individually and explicitly, limiting their reusability and generalization. This paper conducts the first systematic comparative study of LOB representation learning, aiming to identify the effective way of extracting transferable, compact features that capture essential LOB properties. We introduce LOBench, a standardized benchmark with real China A-share market data, offering curated datasets, unified preprocessing, consistent evaluation metrics, and strong baselines. Extensive experiments validate the sufficiency and necessity of LOB representations for various downstream tasks and highlight their advantages over both the traditional task-specific end-to-end models and the advanced representation learning models for general time series. Our work establishes a reproducible framework and provides clear guidelines for future research. Datasets and code will be publicly available at https://github.com/financial-simulation-lab/LOBench.
- Abstract(参考訳): 金融市場の基本的なデータであるリミット・オーダー・ブック(LOB)は、市場ダイナミクスの詳細なビューを提供する一方で、強力な自己相関性、クロスフィーチャー制約、特徴スケールの相違により、評価されたディープモデルを扱う上で大きな課題を提起する。
既存のアプローチはしばしば、特定の下流タスクをエンドツーエンドで密に結合した表現学習を行い、学習された表現を個別かつ明示的に分析することができず、再利用可能性と一般化を制限した。
本稿では,LOB表現学習の体系的比較を初めて実施し,重要なLOB特性を捉えた伝達可能でコンパクトな特徴を抽出する効果的な方法を明らかにすることを目的とする。
我々は、実際の中国のAシェア市場データを標準化したベンチマークであるLOBenchを紹介し、キュレートされたデータセット、統一された前処理、一貫した評価指標、強力なベースラインを提供する。
広範囲な実験により、様々な下流タスクにおけるLOB表現の有効性と必要性が検証され、従来のタスク固有のエンド・ツー・エンドモデルと一般的な時系列における高度な表現学習モデルの両方に対する利点が強調された。
我々の研究は再現可能な枠組みを確立し、将来の研究のための明確なガイドラインを提供する。
データセットとコードはhttps://github.com/financial-simulation-lab/LOBench.comで公開される。
関連論文リスト
- LOB-Bench: Benchmarking Generative AI for Finance - an Application to Limit Order Book Data [7.317765812144531]
本稿では,リミテッド・オーダー・ブック(LOB)における生成メッセージ・バイ・オーダーデータの品質と現実性を評価するためのベンチマークを提案する。
本フレームワークは,実LOBデータと実LOBデータ間の条件および非条件統計量の分布差を計測する。
ベンチマークには、スプレッド、オーダーブックボリューム、オーダー不均衡、メッセージ間の時間といった一般的なLOB統計情報も含まれている。
論文 参考訳(メタデータ) (2025-02-13T10:56:58Z) - Visual Data Diagnosis and Debiasing with Concept Graphs [50.84781894621378]
視覚データセットにおける概念共起バイアスの診断と緩和のためのフレームワークであるConBiasを提案する。
このような不均衡を緩和し,下流タスクの性能向上につながることを示す。
論文 参考訳(メタデータ) (2024-09-26T16:59:01Z) - Uniting contrastive and generative learning for event sequences models [51.547576949425604]
本研究では,2つの自己指導型学習手法 – 例えば,コントラスト学習と,潜在空間におけるマスクイベントの復元に基づく生成的アプローチ – の統合について検討する。
いくつかの公開データセットで行った実験は、シーケンス分類と次点型予測に焦点を合わせ、統合された手法が個々の手法と比較して優れた性能を達成することを示した。
論文 参考訳(メタデータ) (2024-08-19T13:47:17Z) - Corpus Considerations for Annotator Modeling and Scaling [9.263562546969695]
一般的に使われているユーザトークンモデルは、より複雑なモデルよりも一貫して優れています。
以上の結果から,コーパス統計とアノテータモデリング性能の関係が明らかになった。
論文 参考訳(メタデータ) (2024-04-02T22:27:24Z) - Low-shot Object Learning with Mutual Exclusivity Bias [27.67152913041082]
本稿では,相互排他バイアスの計算フレーミングであるLSME(Low-shot Object Learning with Mutual Exclusivity Bias)を紹介する。
我々は、MLコミュニティがこの挑戦的な学習課題に対処できるように、新しいデータセット、包括的なベースライン、最先端の手法を提供する。
論文 参考訳(メタデータ) (2023-12-06T14:54:10Z) - One-Shot Open Affordance Learning with Foundation Models [54.15857111929812]
私たちは、モデルがベースオブジェクトカテゴリ毎に1つの例でトレーニングされる、ワンショットのオープンアフォーダンスラーニング(OOAL)を紹介します。
本稿では,視覚的特徴と手頃なテキスト埋め込みとの整合性を高める,シンプルで効果的な設計の視覚言語フレームワークを提案する。
2つのアベイランスセグメンテーションのベンチマーク実験により、提案手法はトレーニングデータの1%未満で最先端のモデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-11-29T16:23:06Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。