論文の概要: LENS: Large Pre-trained Transformer for Exploring Financial Time Series Regularities
- arxiv url: http://arxiv.org/abs/2408.10111v3
- Date: Tue, 21 Oct 2025 12:42:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:02.224144
- Title: LENS: Large Pre-trained Transformer for Exploring Financial Time Series Regularities
- Title(参考訳): LENS:金融時系列の規則性を探る大型事前訓練型変圧器
- Authors: Yuanjian Xu, Anxian Liu, Jianing Hao, Zhenzhuo Li, Shichang Meng, Guang Zhang,
- Abstract要約: 金融時系列の事前学習モデルである textbfLENS を提案する。
textbfLENSは、慎重に構築されたモデルアーキテクチャを通じて、金融システムの複雑さを効果的にキャプチャする。
我々の研究は、高雑音環境下で事前学習された時系列モデルの開発に関する実践的な洞察を提供する。
- 参考スコア(独自算出の注目度): 3.475989206546412
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modeling large-scale time series has gained significant attention in recent years. However, its direct application in finance remains challenging due to substantial differences in data characteristics across domains. Specifically, financial systems feature inherent stochasticity and low signal-to-noise ratios, rendering traditional methods and pre-training approaches ineffective. This underscores the urgent need for a foundation model tailored to financial time series. To bridge this gap, we propose \textbf{LENS}, a pre-trained model for this domain. \textbf{LENS} effectively captures the complexity of financial stochastic systems through a carefully crafted model architecture and mitigates noise during pre-training by using an invertible embedding module. We provide a rigorous theoretical explanation of the model's effectiveness and validate its performance through extensive experiments. Pre-trained on a dataset comprising 100 billion financial observations, \textbf{LENS} achieves exceptional results across a wide range of critical downstream tasks. Moreover, our work offers practical insights into developing pre-trained time series models in high-noise environments, paving the way for further advancements in this pivotal research domain.
- Abstract(参考訳): 近年,大規模時系列のモデル化が注目されている。
しかし、そのファイナンスへの直接適用は、ドメイン間でのデータ特性が著しく異なるため、依然として困難である。
具体的には、金融システムには固有の確率性と低信号対雑音比があり、従来の手法や事前学習アプローチは効果がない。
このことは、金融時系列に合わせたファンデーションモデルの必要性を浮き彫りにしている。
このギャップを埋めるため,この領域の事前学習モデルであるtextbf{LENS}を提案する。
textbf{LENS} は、注意深く構築されたモデルアーキテクチャにより、金融確率システムの複雑さを効果的に捉え、非可逆な埋め込みモジュールを使用することで、事前トレーニング中にノイズを緩和する。
モデルの有効性を厳密な理論的に説明し、広範囲な実験を通してその性能を検証する。
1000億の財務観測からなるデータセットに事前トレーニングされた \textbf{LENS} は、幅広いクリティカルな下流タスクで例外的な結果を得る。
さらに,本研究は,高雑音環境下での事前学習時系列モデル開発に関する実践的な知見を提供し,この重要な研究領域におけるさらなる発展の道を開く。
関連論文リスト
- Intention-Conditioned Flow Occupancy Models [69.79049994662591]
大規模な事前学習は、今日の機械学習研究のやり方を根本的に変えた。
同じフレームワークを強化学習に適用することは、RLの中核的な課題に対処するための魅力的な方法を提供するので、魅力的です。
生成AIの最近の進歩は、高度に複雑な分布をモデリングするための新しいツールを提供している。
論文 参考訳(メタデータ) (2025-06-10T15:27:46Z) - Time to Embed: Unlocking Foundation Models for Time Series with Channel Descriptions [0.0]
伝統的な時系列モデルはタスク固有であり、しばしばデータセット固有のトレーニングと広範な機能工学に依存している。
我々は、共有、転送可能、ドメイン認識表現を学習する多変量時系列の基盤埋め込みモデルである$textbfCHARM$を紹介した。
モデルはJEPA(Joint Embedding Predictive Architecture)を用いてトレーニングされ、新しい拡張スキームと、解釈性とトレーニング安定性を改善するために設計された損失関数を備える。
論文 参考訳(メタデータ) (2025-05-20T15:58:54Z) - DELPHYNE: A Pre-Trained Model for General and Financial Time Series [2.601248228220401]
時系列データは、パターンの検出、市場の振る舞いの理解、過去のデータに基づく情報的意思決定を支援する金融アプリケーションにおいて有用である。
言語モデリングの最近の進歩は、膨大なデータセットのコレクションに基づいてトレーニングされ、金融分野にまたがる多様なタスクに適用される、時系列事前訓練モデルの台頭につながっている。
しかし、既存の時系列事前訓練モデルでは、ゼロショットと微調整の両方で単純な財務ベンチマークよりもパフォーマンスが向上していない。
論文 参考訳(メタデータ) (2025-05-12T16:53:29Z) - LLM4FTS: Enhancing Large Language Models for Financial Time Series Prediction [0.0]
従来の機械学習モデルは、制限されたモデル容量に制約された予測タスクに制限を示す。
我々は、学習可能なパッチセグメンテーションと動的ウェーブレット畳み込みモジュールによる時間的シーケンスモデリングを強化する新しいフレームワークLLM4FTS$を提案する。
実世界の金融データセットの実験は、このフレームワークの有効性を実証し、複雑な市場パターンを捉える上で優れたパフォーマンスを示し、ストックリターン予測の最先端結果を達成する。
論文 参考訳(メタデータ) (2025-05-05T06:48:34Z) - Sundial: A Family of Highly Capable Time Series Foundation Models [64.6322079384575]
Sundialはネイティブでフレキシブルでスケーラブルな時系列基盤モデルのファミリーです。
我々のモデルは、事前の分布を指定せずに事前訓練されており、複数の確率予測を生成することができる。
Sundialは、ジャスト・イン・タイムの推論速度で、ポイントと確率予測ベンチマークの両方で最先端の結果を達成する。
論文 参考訳(メタデータ) (2025-02-02T14:52:50Z) - BreakGPT: Leveraging Large Language Models for Predicting Asset Price Surges [55.2480439325792]
本稿では,時系列予測や資産価格の急上昇の予測に特化して,新たな大規模言語モデル(LLM)アーキテクチャであるBreakGPTを紹介する。
我々は、最小限のトレーニングで財務予測を行うための有望なソリューションとしてBreakGPTを紹介し、局所的およびグローバルな時間的依存関係をキャプチャする強力な競合相手として紹介する。
論文 参考訳(メタデータ) (2024-11-09T05:40:32Z) - Large Language Models for Financial Aid in Financial Time-series Forecasting [0.4218593777811082]
金融支援の時系列予測は、限られた歴史的データセットと高次元財務情報のために困難である。
我々は、従来のアプローチよりも優れた性能を示すために、事前訓練されたLPM(GPT-2をバックボーンとする)、トランスフォーマー、線形モデルなど、最先端の時系列モデルを用いている。
論文 参考訳(メタデータ) (2024-10-24T12:41:47Z) - Time-MoE: Billion-Scale Time Series Foundation Models with Mixture of Experts [25.503695417712997]
Time-MoEは、より大きく、より有能な基礎モデルを予測するために設計された、スケーラブルで統一されたアーキテクチャである。
Time-MoEは、予測毎にネットワークのサブセットだけを活性化することで、計算効率を向上させる。
時系列基礎モデルを24億のパラメータに拡張し,予測精度を大幅に向上させた。
論文 参考訳(メタデータ) (2024-09-24T12:42:18Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Towards a Foundation Purchasing Model: Pretrained Generative
Autoregression on Transaction Sequences [0.0]
本稿では,金融取引の文脈的埋め込みを得るための生成事前学習手法を提案する。
さらに,510億の取引を含む180の発行銀行のデータコーパスを用いて,埋め込みモデルの大規模事前学習を行う。
論文 参考訳(メタデータ) (2024-01-03T09:32:48Z) - TFMQ-DM: Temporal Feature Maintenance Quantization for Diffusion Models [52.454274602380124]
拡散モデルは非常に時間ステップ$t$に大きく依存し、良好なマルチラウンドデノジングを実現している。
本稿では,時間情報ブロック上に構築した時間的特徴保守量子化(TFMQ)フレームワークを提案する。
先駆的なブロック設計により、時間情報認識再構成(TIAR)と有限集合キャリブレーション(FSC)を考案し、完全な時間的特徴を整列させる。
論文 参考訳(メタデータ) (2023-11-27T12:59:52Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - Generative Temporal Difference Learning for Infinite-Horizon Prediction [101.59882753763888]
我々は、無限確率的地平線を持つ環境力学の予測モデルである$gamma$-modelを導入する。
トレーニングタイムとテストタイムの複合的なエラーの間には、そのトレーニングが避けられないトレードオフを反映しているかについて議論する。
論文 参考訳(メタデータ) (2020-10-27T17:54:12Z) - Modeling Financial Time Series using LSTM with Trainable Initial Hidden
States [0.0]
本稿では,ディープラーニングモデルを用いた金融時系列のモデリング手法を提案する。
トレーニング可能な初期隠れ状態を備えたLong Short-Term Memory (LSTM) ネットワークを使用する。
論文 参考訳(メタデータ) (2020-07-14T06:36:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。