論文の概要: Exploring Microstructural Dynamics in Cryptocurrency Limit Order Books: Better Inputs Matter More Than Stacking Another Hidden Layer
- arxiv url: http://arxiv.org/abs/2506.05764v2
- Date: Mon, 09 Jun 2025 22:37:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 12:52:34.280975
- Title: Exploring Microstructural Dynamics in Cryptocurrency Limit Order Books: Better Inputs Matter More Than Stacking Another Hidden Layer
- Title(参考訳): 暗号リミットオーダーブックにおけるミクロ構造ダイナミクスの探索 - 隠れたレイヤーを積み重ねるよりも入力が優れている
- Authors: Haochuan Wang,
- Abstract要約: ニューラルネットワークに余分な隠蔽層やパラメータを追加することで、短期的な価格予測が真に向上するかどうかを検討することを目的としている。
我々は,BTC/USDT LOBスナップショットを100ミリ秒から複数秒間隔で公開して,解釈可能なベースライン,ロジスティック回帰,XGBoostからディープアーキテクチャ(DeepLOB,Conv1D+LSTM)まで,モデルをベンチマークする。
- 参考スコア(独自算出の注目度): 9.2463347238923
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Cryptocurrency price dynamics are driven largely by microstructural supply demand imbalances in the limit order book (LOB), yet the highly noisy nature of LOB data complicates the signal extraction process. Prior research has demonstrated that deep-learning architectures can yield promising predictive performance on pre-processed equity and futures LOB data, but they often treat model complexity as an unqualified virtue. In this paper, we aim to examine whether adding extra hidden layers or parameters to "blackbox ish" neural networks genuinely enhances short term price forecasting, or if gains are primarily attributable to data preprocessing and feature engineering. We benchmark a spectrum of models from interpretable baselines, logistic regression, XGBoost to deep architectures (DeepLOB, Conv1D+LSTM) on BTC/USDT LOB snapshots sampled at 100 ms to multi second intervals using publicly available Bybit data. We introduce two data filtering pipelines (Kalman, Savitzky Golay) and evaluate both binary (up/down) and ternary (up/flat/down) labeling schemes. Our analysis compares models on out of sample accuracy, latency, and robustness to noise. Results reveal that, with data preprocessing and hyperparameter tuning, simpler models can match and even exceed the performance of more complex networks, offering faster inference and greater interpretability.
- Abstract(参考訳): 暗号通貨の価格変動は主に、制限順序帳(LOB)のマイクロ構造的需給不均衡によって引き起こされるが、LOBデータの非常にノイズの多い性質は、信号抽出過程を複雑にしている。
従来の研究では、ディープラーニングアーキテクチャは、事前処理されたエクイティと将来的なLOBデータに対して、予測可能なパフォーマンスが得られることが示されていたが、モデル複雑性を不適格な美徳として扱うことが多かった。
本稿では,ニューラルネットワークに余分な隠蔽層やパラメータを追加することで,短期的価格予測が真に向上するかどうか,あるいはデータ前処理や特徴工学に起因した利得が主に寄与するかどうかを検討することを目的とする。
我々は,BTC/USDT LOBスナップショットを100ミリ秒から複数秒間隔で公開して,解釈可能なベースライン,ロジスティック回帰,XGBoostからディープアーキテクチャ(DeepLOB,Conv1D+LSTM)まで,モデルをベンチマークする。
我々は2つのデータフィルタリングパイプライン(Kalman, Savitzky Golay)を導入し、バイナリ(アップ/ダウン)と3次(アップ/フラット/ダウン)のラベリングスキームを評価した。
分析では、サンプルの精度、レイテンシ、ノイズに対する頑健さのモデルを比較した。
その結果、データ前処理とハイパーパラメータチューニングにより、より単純なモデルはより複雑なネットワークのパフォーマンスにマッチし、さらに高い解釈性を提供する。
関連論文リスト
- Predictive Performance of Deep Quantum Data Re-uploading Models [4.852613028421959]
本研究では,データ再アップロードモデルにディープエンコーディング層を用いる場合の予測性能の基本的な制限を明らかにする。
理論的には、限定量子データ再アップロードモデルで高次元データを処理する場合、予測性能は徐々にランダムなゲスティングレベルに低下する。
論文 参考訳(メタデータ) (2025-05-24T13:11:31Z) - Brain-on-Switch: Towards Advanced Intelligent Network Data Plane via NN-Driven Traffic Analysis at Line-Speed [33.455302442142994]
プログラム可能なネットワークは、ラインスピードで学習に基づくトラフィック分析を実現するIntelligent Network Data Plane (INDP) に大きな研究を巻き起こした。
INDPの以前の技術は、データプレーンにツリー/フォレストモデルをデプロイすることに焦点を当てていた。
本稿では,ニューラルネットワーク(NN)によるトラフィック解析を回線速度で実現することにより,INDPの境界を押し上げるBoSを提案する。
論文 参考訳(メタデータ) (2024-03-17T04:59:30Z) - Combating Bilateral Edge Noise for Robust Link Prediction [56.43882298843564]
本稿では,RGIB(Robust Graph Information Bottleneck)という情報理論の原則を提案し,信頼性の高い監視信号を抽出し,表現の崩壊を回避する。
RGIB-SSLとRGIB-REPの2つのインスタンス化は、異なる手法の利点を活用するために検討されている。
6つのデータセットと3つのGNNの様々なノイズシナリオによる実験は、我々のRGIBインスタンスの有効性を検証する。
論文 参考訳(メタデータ) (2023-11-02T12:47:49Z) - Decoder Tuning: Efficient Language Understanding as Decoding [84.68266271483022]
本稿では,タスク固有のデコーダネットワークを出力側で最適化するデコーダチューニング(DecT)を提案する。
勾配ベースの最適化により、DecTは数秒以内にトレーニングでき、サンプル毎に1つのPクエリしか必要としない。
我々は、広範囲にわたる自然言語理解実験を行い、DecTが200ドル以上のスピードアップで最先端のアルゴリズムを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-12-16T11:15:39Z) - DSLOB: A Synthetic Limit Order Book Dataset for Benchmarking Forecasting
Algorithms under Distributional Shift [16.326002979578686]
電子取引市場において、リミットオーダーブック(LOB)は、所定のセキュリティのための様々な価格レベルで、保留中の購入/販売注文に関する情報を提供する。
近年、下流機械学習タスクの解決にLOBデータを使うことへの関心が高まっている。
論文 参考訳(メタデータ) (2022-11-17T06:33:27Z) - The Limit Order Book Recreation Model (LOBRM): An Extended Analysis [2.0305676256390934]
マイクロ構造秩序書(LOB)は、金融資産の細かな先進需要と供給関係を描いている。
LOBRMは最近、貿易と引用(TAQ)データからLOBを合成することで、このギャップを埋めることを提案した。
我々はLOBRMの研究を拡張し、実世界のアプリケーションシナリオでの利用をさらに検証する。
論文 参考訳(メタデータ) (2021-07-01T15:25:21Z) - JUMBO: Scalable Multi-task Bayesian Optimization using Offline Data [86.8949732640035]
追加データをクエリすることで制限をサイドステップするMBOアルゴリズムであるJUMBOを提案する。
GP-UCBに類似した条件下では, 応答が得られないことを示す。
実世界の2つの最適化問題に対する既存手法に対する性能改善を実証的に示す。
論文 参考訳(メタデータ) (2021-06-02T05:03:38Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z) - A Survey on Impact of Transient Faults on BNN Inference Accelerators [0.9667631210393929]
ビッグデータブームにより、非常に大きなデータセットへのアクセスと分析が容易になります。
ディープラーニングモデルは、計算能力と極めて高いメモリアクセスを必要とする。
本研究では,ソフトエラーが独自の深層学習アルゴリズムに与える影響が画像の劇的な誤分類を引き起こす可能性を実証した。
論文 参考訳(メタデータ) (2020-04-10T16:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。