論文の概要: Temporal Kolmogorov-Arnold Networks (T-KAN) for High-Frequency Limit Order Book Forecasting: Efficiency, Interpretability, and Alpha Decay
- arxiv url: http://arxiv.org/abs/2601.02310v1
- Date: Mon, 05 Jan 2026 17:59:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:23.338894
- Title: Temporal Kolmogorov-Arnold Networks (T-KAN) for High-Frequency Limit Order Book Forecasting: Efficiency, Interpretability, and Alpha Decay
- Title(参考訳): 時間的コルモゴロフ・アルノルドネットワーク(T-KAN)による高周波数制限順序ブック予測:効率性,解釈可能性,Alpha劣化
- Authors: Ahmad Makinde,
- Abstract要約: 本稿では,標準LSTMの固定された線形重みを学習可能なB-スプライン活性化関数に置き換えるために,時間的コルモゴロフ・アルノルドネットワーク(T-KAN)を導入する。
T-KANネットワークの有効性は低く、-82.76%のDeepLOBが1.0bpsの取引コストでダウンしたのに対し、132.48%のリターンをもたらす。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-Frequency trading (HFT) environments are characterised by large volumes of limit order book (LOB) data, which is notoriously noisy and non-linear. Alpha decay represents a significant challenge, with traditional models such as DeepLOB losing predictive power as the time horizon (k) increases. In this paper, using data from the FI-2010 dataset, we introduce Temporal Kolmogorov-Arnold Networks (T-KAN) to replace the fixed, linear weights of standard LSTMs with learnable B-spline activation functions. This allows the model to learn the 'shape' of market signals as opposed to just their magnitude. This resulted in a 19.1% relative improvement in the F1-score at the k = 100 horizon. The efficacy of T-KAN networks cannot be understated, producing a 132.48% return compared to the -82.76% DeepLOB drawdown under 1.0 bps transaction costs. In addition to this, the T-KAN model proves quite interpretable, with the 'dead-zones' being clearly visible in the splines. The T-KAN architecture is also uniquely optimized for low-latency FPGA implementation via High level Synthesis (HLS). The code for the experiments in this project can be found at https://github.com/AhmadMak/Temporal-Kolmogorov-Arnold-Networks-T-KAN-for-High-Frequency-Limit-Order -Book-Forecasting.
- Abstract(参考訳): 高周波トレーディング(HFT)環境は、高ボリュームのリミットオーダーブック(LOB)データによって特徴づけられる。
アルファ崩壊は重要な課題であり、時間地平線(k)が増加するにつれて、DeepLOBのような伝統的なモデルは予測力を失う。
本稿では、FI-2010データセットのデータを用いて、標準LSTMの固定線形重みを学習可能なB-スプライン活性化関数に置き換えるために、テンポラルコルモゴロフ・アルノルドネットワーク(T-KAN)を導入する。
これにより、モデルは単に大きさではなく、市場信号の「形」を学ぶことができる。
この結果、k = 100水平線でのF1スコアの相対的な改善が19.1%となった。
T-KANネットワークの有効性は低く、-82.76%のDeepLOBが1.0bpsの取引コストでダウンしたのに対し、132.48%のリターンをもたらす。
これに加えて、T-KANモデルはかなり解釈可能であり、「死ゾーン」はスプラインではっきりと見える。
T-KANアーキテクチャは、高レベル合成(HLS)による低遅延FPGA実装にも一意に最適化されている。
このプロジェクトの実験のコードはhttps://github.com/AhmadMak/Temporal-Kolmogorov-Arnold-Networks-T-KAN-for-High-Frequency-Limit-Order -Book-Forecastingで見ることができる。
関連論文リスト
- RF-DETR: Neural Architecture Search for Real-Time Detection Transformers [42.015879164246805]
RF-DETRは軽量な特殊検出変換器である。
我々のアプローチは、ターゲットデータセット上にトレーニング済みのベースネットワークを微調整する。
我々はNASの"tunable knobs"を再検討し、多様なターゲットドメインへのDETRの転送性を改善する。
論文 参考訳(メタデータ) (2025-11-12T18:58:39Z) - Test time training enhances in-context learning of nonlinear functions [51.56484100374058]
テストタイムトレーニング(TTT)は、各予測に先立って指定されたパラメータを明示的に更新することで、モデル性能を向上させる。
本研究では,TTTとテキスト内学習(ICL)の組み合わせについて検討する。
論文 参考訳(メタデータ) (2025-09-30T03:56:44Z) - TGLF-SINN: Deep Learning Surrogate Model for Accelerating Turbulent Transport Modeling in Fusion [18.028061388104963]
我々は,3つの重要なイノベーションを持つtextbfTGLF-SINN (Spectra-Informed Neural Network) を提案する。
我々の手法は、トレーニングデータを大幅に減らし、優れたパフォーマンスを実現する。
下流フラックスマッチングアプリケーションでは、NNサロゲートがTGLFの45倍のスピードアップを提供しながら、同等の精度を維持しています。
論文 参考訳(メタデータ) (2025-09-07T09:36:51Z) - STAF: Sinusoidal Trainable Activation Functions for Implicit Neural Representation [7.2888019138115245]
Inlicit Neural Representations (INR) は、連続的な信号をモデリングするための強力なフレームワークとして登場した。
ReLUベースのネットワークのスペクトルバイアスは、十分に確立された制限であり、ターゲット信号の微細な詳細を捕捉する能力を制限する。
Sinusoidal Trainable Function Activation (STAF)について紹介する。
STAFは本質的に周波数成分を変調し、自己適応型スペクトル学習を可能にする。
論文 参考訳(メタデータ) (2025-02-02T18:29:33Z) - Spatial Annealing for Efficient Few-shot Neural Rendering [73.49548565633123]
我々はtextbfSpatial textbf Annealing regularized textbfNeRF (textbfSANeRF) という,正確で効率的な数発のニューラルレンダリング手法を導入する。
単に1行のコードを追加することで、SANeRFは、現在の数ショットのニューラルレンダリング方法と比較して、より優れたレンダリング品質とはるかに高速な再構築速度を提供する。
論文 参考訳(メタデータ) (2024-06-12T02:48:52Z) - Wav-KAN: Wavelet Kolmogorov-Arnold Networks [3.38220960870904]
Wav-KANは、Wavelet Kolmogorov-Arnold Networks(Wav-KAN)フレームワークを活用して、解釈性とパフォーマンスを向上させる革新的なニューラルネットワークアーキテクチャである。
我々の結果は、解釈可能な高性能ニューラルネットワークを開発するための強力なツールとして、Wav-KANの可能性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-05-21T14:36:16Z) - SGCNeRF: Few-Shot Neural Rendering via Sparse Geometric Consistency Guidance [136.15885067858298]
本研究では、空間的に一貫した幾何フィルタリング機構と周波数誘導幾何正規化戦略により強化された特徴マッチングに基づくスパース幾何正規化モジュールを提案する。
実験により, SGCNeRFは, LLFFおよびDTUにおけるPSNRの0.7dBの改善により, 優れた幾何整合性を実現し, かつFreeNeRFを超えていることが示された。
論文 参考訳(メタデータ) (2024-04-01T08:37:57Z) - Test-Time Adaptation Induces Stronger Accuracy and Agreement-on-the-Line [65.14099135546594]
最近のテスト時間適応 (TTA) 法は, モデルに非常に弱い相関関係を示すシフトであっても, ACL と AGL の傾向を大幅に強化する。
この結果から,TTAとAGLに基づく推定手法を組み合わせることで,より広い分布シフトの集合に対する高精度なモデルOOD性能を推定できることが示唆された。
論文 参考訳(メタデータ) (2023-10-07T23:21:25Z) - Conditioning Trick for Training Stable GANs [70.15099665710336]
本稿では,GANトレーニング中の不安定性問題に対応するため,ジェネレータネットワークに正規性から逸脱する条件付け手法を提案する。
我々は、生成元をシュア分解のスペクトル領域で計算された実サンプルの正規化関数から逸脱するように強制する。
論文 参考訳(メタデータ) (2020-10-12T16:50:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。