論文の概要: Time-Series Foundation Model for Value-at-Risk Forecasting
- arxiv url: http://arxiv.org/abs/2410.11773v6
- Date: Tue, 21 Jan 2025 15:21:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:15:38.029602
- Title: Time-Series Foundation Model for Value-at-Risk Forecasting
- Title(参考訳): バリュー・アット・リスク予測のための時系列基礎モデル
- Authors: Anubha Goel, Puneet Pasricha, Juho Kanniainen,
- Abstract要約: 本研究は,バリュー・アット・リスク(VaR)の時系列基礎モデルの性能を初めて解析したものである。
我々はGoogleのTimesFMモデルと、GAS(Generalized Autoregressive Score)を含む従来のパラメトリックモデルと非パラメトリックモデルを比較した。
8.5年以上のアウト・オブ・サンプルデータによるバックテストでは、微調整された基礎モデルは、実際のオーバー・オーバー・予測比率で従来の手法よりも一貫して優れていた。
- 参考スコア(独自算出の注目度): 9.090616417812306
- License:
- Abstract: This study is the first to analyze the performance of a time-series foundation model for Value-at-Risk (VaR), which essentially forecasts the left-tail quantiles of returns. Foundation models, pre-trained on diverse datasets, can be applied in a zero-shot setting with minimal data or further improved through finetuning. We compare Google's TimesFM model to conventional parametric and non-parametric models, including GARCH and Generalized Autoregressive Score (GAS), using 19 years of daily returns from the S&P 100 index and its constituents. Backtesting with over 8.5 years of out-of-sample data shows that the fine-tuned foundation model consistently outperforms traditional methods in actual-over-expected ratios. For the quantile score loss function, it performs comparably to the best econometric model, GAS. Overall, the foundation model ranks as the best or among the top performers across the 0.01, 0.025, 0.05, and 0.1 quantile forecasting. Fine-tuning significantly improves accuracy, showing that zero-shot use is not optimal for VaR.
- Abstract(参考訳): 本研究は、リターンの左テール量子化を本質的に予測するバリュー・アット・リスク(VaR)の時系列基礎モデルの性能を初めて分析したものである。
さまざまなデータセットで事前トレーニングされたファンデーションモデルは、最小限のデータでゼロショット設定に適用するか、微調整によってさらに改善される。
我々は、GoogleのTimesFMモデルと、GARCHやGeneralized Autoregressive Score(GAS)を含む従来のパラメトリックおよび非パラメトリックモデルを比較し、S&P100インデックスとその構成物から毎日19年間リターンした。
8.5年以上のアウト・オブ・サンプルデータによるバックテストでは、微調整された基礎モデルは、実際のオーバー・オーバー・予測比率で従来の手法よりも一貫して優れていた。
量子スコア損失関数では、最良の計量モデルであるGASと同等に機能する。
総じて、ファンデーションモデルは0.01、0.025、0.005、0.1量子予測で最高または上位のパフォーマーにランク付けされている。
微調整は精度を著しく向上させ、VaRにはゼロショットの使用が最適でないことを示す。
関連論文リスト
- On conditional diffusion models for PDE simulations [53.01911265639582]
スパース観測の予測と同化のためのスコアベース拡散モデルについて検討した。
本稿では,予測性能を大幅に向上させる自動回帰サンプリング手法を提案する。
また,条件付きスコアベースモデルに対する新たなトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2024-10-21T18:31:04Z) - GIFT-Eval: A Benchmark For General Time Series Forecasting Model Evaluation [90.53485251837235]
時系列基礎モデルはゼロショット予測に優れ、明示的なトレーニングなしで多様なタスクを処理する。
GIFT-Evalは、多様なデータセットに対する評価を促進するための先駆的なベンチマークである。
GIFT-Evalには、144,000の時系列と17700万のデータポイントの23のデータセットが含まれている。
論文 参考訳(メタデータ) (2024-10-14T11:29:38Z) - GAS-Norm: Score-Driven Adaptive Normalization for Non-Stationary Time Series Forecasting in Deep Learning [1.642449952957482]
入力データの平均値と分散値の変化がディープニューラルネットワーク(DNN)の予測能力をいかに破壊するかを示す。
本稿では,GAS(Generalized Autoregressive Score)モデルとDeep Neural Networkを組み合わせた適応時系列正規化と予測の新しい手法であるGAS-Normを紹介する。
その結果,GAS-Normと組み合わせた場合,25項目中21項目の予測モデルでは,他の正規化手法と比較して精度が向上した。
論文 参考訳(メタデータ) (2024-10-04T21:26:12Z) - A Dynamic Approach to Stock Price Prediction: Comparing RNN and Mixture of Experts Models Across Different Volatility Profiles [0.0]
MoEフレームワークは揮発性株のRNNと安定株の線形モデルを組み合わせて、ゲーティングネットワークを介して各モデルの重量を動的に調整する。
その結果,MoE法は様々な変動性プロファイルの予測精度を著しく向上させることがわかった。
MoEモデルの適応性は個々のモデルよりも優れており、Mean Squared Error(MSE)やMean Absolute Error(MAE)などのエラーを減らすことができる。
論文 参考訳(メタデータ) (2024-10-04T14:36:21Z) - No "Zero-Shot" Without Exponential Data: Pretraining Concept Frequency Determines Multimodal Model Performance [68.18779562801762]
マルチモーダルモデルは、下流の"ゼロショット"のパフォーマンスを線形改善するために、指数関数的に多くのデータを必要とする。
本研究は,大規模な訓練パラダイムの下での「ゼロショット」一般化能力の鍵となる訓練データに対する指数関数的要求を明らかにする。
論文 参考訳(メタデータ) (2024-04-04T17:58:02Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z) - Generalized Logit Adjustment: Calibrating Fine-tuned Models by Removing Label Bias in Foundation Models [75.9543301303586]
CLIPのようなファンデーションモデルは、追加のトレーニングデータなしで、さまざまなタスクでゼロショット転送を可能にする。
微調整やアンサンブルも一般的に下流のタスクに合うように採用されている。
しかし、先行研究は基礎モデルに固有のバイアスを見落としていると論じる。
論文 参考訳(メタデータ) (2023-10-12T08:01:11Z) - FreDo: Frequency Domain-based Long-Term Time Series Forecasting [12.268979675200779]
誤差の蓄積により,高度なモデルでは,長期予測のベースラインモデルを上回る結果が得られない可能性が示唆された。
本稿では,ベースラインモデル上に構築された周波数領域に基づくニューラルネットワークモデルFreDoを提案する。
論文 参考訳(メタデータ) (2022-05-24T18:19:15Z) - Back2Future: Leveraging Backfill Dynamics for Improving Real-time
Predictions in Future [73.03458424369657]
公衆衛生におけるリアルタイム予測では、データ収集は簡単で要求の多いタスクである。
過去の文献では「バックフィル」現象とそのモデル性能への影響についてはほとんど研究されていない。
我々は、与えられたモデルの予測をリアルタイムで洗練することを目的とした、新しい問題とニューラルネットワークフレームワークBack2Futureを定式化する。
論文 参考訳(メタデータ) (2021-06-08T14:48:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。