論文の概要: DELPHYNE: A Pre-Trained Model for General and Financial Time Series
- arxiv url: http://arxiv.org/abs/2506.06288v1
- Date: Mon, 12 May 2025 16:53:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 03:13:19.020828
- Title: DELPHYNE: A Pre-Trained Model for General and Financial Time Series
- Title(参考訳): DELPHYNE: 一般およびファイナンシャル時系列の事前トレーニングモデル
- Authors: Xueying Ding, Aakriti Mittal, Achintya Gopal,
- Abstract要約: 時系列データは、パターンの検出、市場の振る舞いの理解、過去のデータに基づく情報的意思決定を支援する金融アプリケーションにおいて有用である。
言語モデリングの最近の進歩は、膨大なデータセットのコレクションに基づいてトレーニングされ、金融分野にまたがる多様なタスクに適用される、時系列事前訓練モデルの台頭につながっている。
しかし、既存の時系列事前訓練モデルでは、ゼロショットと微調整の両方で単純な財務ベンチマークよりもパフォーマンスが向上していない。
- 参考スコア(独自算出の注目度): 2.601248228220401
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time-series data is a vital modality within data science communities. This is particularly valuable in financial applications, where it helps in detecting patterns, understanding market behavior, and making informed decisions based on historical data. Recent advances in language modeling have led to the rise of time-series pre-trained models that are trained on vast collections of datasets and applied to diverse tasks across financial domains. However, across financial applications, existing time-series pre-trained models have not shown boosts in performance over simple finance benchmarks in both zero-shot and fine-tuning settings. This phenomenon occurs because of a i) lack of financial data within the pre-training stage, and ii) the negative transfer effect due to inherently different time-series patterns across domains. Furthermore, time-series data is continuous, noisy, and can be collected at varying frequencies and with varying lags across different variables, making this data more challenging to model than languages. To address the above problems, we introduce a Pre-trained MoDEL for FINance TimE-series (Delphyne). Delphyne achieves competitive performance to existing foundation and full-shot models with few fine-tuning steps on publicly available datasets, and also shows superior performances on various financial tasks.
- Abstract(参考訳): 時系列データは、データサイエンスコミュニティにおいて重要なモダリティである。
これは特に金融アプリケーションにおいて重要であり、パターンの検出、市場の振る舞いの理解、そして歴史的データに基づいた情報的意思決定に役立ちます。
言語モデリングの最近の進歩は、膨大なデータセットのコレクションに基づいてトレーニングされ、金融分野にまたがる多様なタスクに適用される、時系列事前訓練モデルの台頭につながっている。
しかし、金融アプリケーション全体では、既存の時系列事前訓練モデルでは、ゼロショットと微調整の両方で単純な財務ベンチマークよりもパフォーマンスが向上していない。
この現象は a によって起こる
一 事前訓練段階における財務データの欠如及び
二 ドメインごとに本質的に異なる時系列パターンによる負の伝達効果
さらに、時系列データは連続的で騒々しく、様々な周波数で収集でき、様々な変数にまたがるラグがあるため、このデータは言語よりもモデル化が難しい。
上記の問題に対処するため,FINance TimE-Series (Delphyne) のための事前学習型MoDELを導入する。
Delphyneは、公開データセットの微調整の少ない既存の基盤モデルとフルショットモデルとの競合的なパフォーマンスを実現し、さまざまな財務タスクにおいて優れたパフォーマンスを示している。
関連論文リスト
- Empowering Time Series Analysis with Synthetic Data: A Survey and Outlook in the Era of Foundation Models [104.17057231661371]
時系列解析は複雑なシステムの力学を理解するために重要である。
基本モデルの最近の進歩はタスク非依存の時系列基礎モデル (TSFM) と大規模言語モデルベース時系列モデル (TSLLM) につながっている。
彼らの成功は、規制、多様性、品質、量制約のために構築が困難である、大規模で多様で高品質なデータセットに依存する。
本調査では,TSFMとTLLLMの合成データの総合的なレビュー,データ生成戦略の分析,モデル事前学習におけるそれらの役割,微調整,評価,今後の研究方向性の特定について述べる。
論文 参考訳(メタデータ) (2025-03-14T13:53:46Z) - Large Language Models for Financial Aid in Financial Time-series Forecasting [0.4218593777811082]
金融支援の時系列予測は、限られた歴史的データセットと高次元財務情報のために困難である。
我々は、従来のアプローチよりも優れた性能を示すために、事前訓練されたLPM(GPT-2をバックボーンとする)、トランスフォーマー、線形モデルなど、最先端の時系列モデルを用いている。
論文 参考訳(メタデータ) (2024-10-24T12:41:47Z) - Recent Trends in Modelling the Continuous Time Series using Deep Learning: A Survey [0.18434042562191813]
継続的シリーズは、医療、自動車、エネルギー、金融、モノのインターネット(IoT)など、現代のさまざまな分野において不可欠である。
本稿では、時系列の一般的な問題領域について述べ、連続時系列をモデル化する際の課題について概説する。
論文 参考訳(メタデータ) (2024-09-13T14:19:44Z) - PLUTUS: A Well Pre-trained Large Unified Transformer can Unveil Financial Time Series Regularities [0.848210898747543]
金融時系列モデリングは市場行動の理解と予測に不可欠である。
従来のモデルは、非線形性、非定常性、高ノイズレベルのために複雑なパターンを捉えるのに苦労している。
NLPにおける大きな言語モデルの成功に触発されて、$textbfPLUTUS$, a $textbfP$re-trained $textbfL$argeを紹介します。
PLUTUSは10億以上のパラメータを持つ最初のオープンソース、大規模、事前訓練された金融時系列モデルである。
論文 参考訳(メタデータ) (2024-08-19T15:59:46Z) - MOMENT: A Family of Open Time-series Foundation Models [19.0845213853369]
汎用時系列解析のためのオープンソース基盤モデルのファミリであるMOMENTを紹介する。
我々は、タイムシリーズパイル(Time series Pile)と呼ばれる公開時系列のコレクションをコンパイルし、時系列固有の課題に体系的に取り組みます。
我々は、様々なタスクやデータセットに関する時系列基礎モデルを、限られた監督設定で評価するためのベンチマークを設計するための最近の作業に基づいて構築する。
論文 参考訳(メタデータ) (2024-02-06T10:48:46Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - UniTime: A Language-Empowered Unified Model for Cross-Domain Time Series
Forecasting [59.11817101030137]
この研究はドメイン境界を超越する統一モデルパラダイムを提唱する。
効果的なクロスドメインモデルを学ぶことは、以下の課題を提示します。
効果的なドメイン間時系列学習のためのUniTimeを提案する。
論文 参考訳(メタデータ) (2023-10-15T06:30:22Z) - Low-Rank Temporal Attention-Augmented Bilinear Network for financial
time-series forecasting [93.73198973454944]
ディープラーニングモデルは、金融時系列データの予測問題など、さまざまな領域から来る多くの問題において、大幅なパフォーマンス改善をもたらしている。
近年,制限順序書の時系列予測の効率的かつ高性能なモデルとして,時間的注意強化バイリニアネットワークが提案されている。
本稿では,モデルの低ランクテンソル近似を提案し,トレーニング可能なパラメータの数をさらに削減し,その速度を向上する。
論文 参考訳(メタデータ) (2021-07-05T10:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。