論文の概要: Scaling Law for Large-Scale Pre-Training Using Chaotic Time Series and Predictability in Financial Time Series
- arxiv url: http://arxiv.org/abs/2509.04921v1
- Date: Fri, 05 Sep 2025 08:40:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.534467
- Title: Scaling Law for Large-Scale Pre-Training Using Chaotic Time Series and Predictability in Financial Time Series
- Title(参考訳): カオス時系列と予測可能性を用いた大規模事前学習のスケーリング法則
- Authors: Yuki Takemoto,
- Abstract要約: 時系列予測は、さまざまな分野における意思決定プロセスにおいて重要な役割を果たす。
本研究では,人工カオス時系列を生成することで財務時系列をモデル化する手法を提案する。
次に、ファイナンシャル時系列データをシミュレートするために再サンプリング手法を適用し、トレーニングサンプルとして使用します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series forecasting plays a critical role in decision-making processes across diverse fields including meteorology, traffic, electricity, economics, finance, and so on. Especially, predicting returns on financial instruments is a challenging problem. Some researchers have proposed time series foundation models applicable to various forecasting tasks. Simultaneously, based on the recognition that real-world time series exhibit chaotic properties, methods have been developed to artificially generate synthetic chaotic time series, construct diverse datasets and train models. In this study, we propose a methodology for modeling financial time series by generating artificial chaotic time series and applying resampling techniques to simulate financial time series data, which we then use as training samples. Increasing the resampling interval to extend predictive horizons, we conducted large-scale pre-training using 10 billion training samples for each case. We subsequently created test datasets for multiple timeframes using actual Bitcoin trade data and performed zero-shot prediction without re-training the pre-trained model. The results of evaluating the profitability of a simple trading strategy based on these predictions demonstrated significant performance improvements over autocorrelation models. During the large-scale pre-training process, we observed a scaling law-like phenomenon that we can achieve predictive performance at a certain level with extended predictive horizons for chaotic time series by increasing the number of training samples exponentially. If this scaling law proves robust and holds true across various chaotic models, it suggests the potential to predict near-future events by investing substantial computational resources. Future research should focus on further large-scale training and verifying the applicability of this scaling law to diverse chaotic models.
- Abstract(参考訳): 時系列予測は気象学、交通学、電気学、経済学、金融学など様々な分野における意思決定プロセスにおいて重要な役割を果たしている。
特に、金融商品のリターンを予測することは難しい問題である。
一部の研究者は、様々な予測タスクに適用可能な時系列基礎モデルを提案している。
同時に、実世界の時系列がカオス的性質を示すという認識に基づいて、人工的にカオス時系列を生成し、多様なデータセットを構築し、列車モデルを構築する方法が開発されている。
本研究では,金融時系列データをシミュレーションするために,人工カオス時系列を生成し,再サンプリング手法を適用して,金融時系列をモデル化する手法を提案する。
予測地平線を延ばすために再サンプリング間隔を増大させ,各症例について100億のトレーニングサンプルを用いて大規模事前学習を行った。
その後、実際のBitcoin取引データを使用して複数のタイムフレームのテストデータセットを作成し、事前トレーニングされたモデルを再トレーニングすることなくゼロショット予測を実行しました。
これらの予測に基づいて、単純な取引戦略の収益性を評価する結果、自己相関モデルよりも顕著な性能改善が示された。
大規模事前学習の過程では,学習サンプル数を指数関数的に増加させることで,カオス時系列の予測的地平線を拡張して,一定のレベルで予測性能を達成できる法則的現象が観察された。
このスケーリング法則が頑健で、様々なカオスモデルで真であると証明すれば、かなりの計算資源を投資することで、近い将来の事象を予測する可能性が示唆される。
今後の研究は、より大規模なトレーニングと、このスケーリング法則が多様なカオスモデルに適用可能であることを検証することに焦点を当てる。
関連論文リスト
- Scaling Law for Time Series Forecasting [8.967263259533036]
大規模データセット、複雑なモデル、強化されたデータの粒度に報いるスケーリング法則は、ディープラーニングの様々な分野において観察されている。
しかし、時系列予測の研究は、時系列予測のためのディープラーニング手法のスケーリング行動に疑問を投げかけている。
本稿では,このような異常な振る舞いを説明できる時系列予測法則のスケーリング理論を提案する。
論文 参考訳(メタデータ) (2024-05-24T00:46:27Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Pushing the Limits of Pre-training for Time Series Forecasting in the
CloudOps Domain [54.67888148566323]
クラウドオペレーションドメインから,大規模時系列予測データセットを3つ導入する。
強力なゼロショットベースラインであり、モデルとデータセットサイズの両方において、さらなるスケーリングの恩恵を受けています。
これらのデータセットと結果を取得することは、古典的および深層学習のベースラインを事前訓練された方法と比較した総合的なベンチマーク結果の集合である。
論文 参考訳(メタデータ) (2023-10-08T08:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。