論文の概要: From Tables to Time: How TabPFN-v2 Outperforms Specialized Time Series Forecasting Models
- arxiv url: http://arxiv.org/abs/2501.02945v3
- Date: Mon, 26 May 2025 15:25:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 09:38:56.639292
- Title: From Tables to Time: How TabPFN-v2 Outperforms Specialized Time Series Forecasting Models
- Title(参考訳): タブレットから時間へ:TabPFN-v2の特殊時系列予測モデルのパフォーマンス
- Authors: Shi Bin Hoo, Samuel Müller, David Salinas, Frank Hutter,
- Abstract要約: 本稿では,TabPFN-v2と軽量機能工学を組み合わせた簡易な手法TabPFN-TSを導入する。
その単純さとコンパクトなサイズ(11Mパラメータ)にもかかわらず、TabPFN-TSは両方の予測タスクで公開GIFT-Evalリーダーボードのトップランクを獲得している。
- 参考スコア(独自算出の注目度): 40.19199376033612
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundation models have become increasingly popular for forecasting due to their ability to provide predictions without requiring a lot of training data. In this work, we demonstrate how TabPFN-v2, a general tabular foundation model, can be effectively applied to time series forecasting. We introduce TabPFN-TS, a simple method that combines TabPFN-v2 with lightweight feature engineering to enable both point and probabilistic forecasting. Despite its simplicity and compact size (11M parameters), TabPFN-TS achieves top rank on the public GIFT-Eval leaderboard in both forecasting tasks. Through ablation studies, we investigate factors contributing to this surprising effectiveness, especially considering TabPFN-v2 was pretrained solely on synthetic tabular data with no exposure to time series. Our results highlights the potential of tabular foundation models like TabPFN-v2 as a valuable new approach for time series forecasting. Our implementation is available at https://github.com/PriorLabs/tabpfn-time-series.
- Abstract(参考訳): ファンデーションモデルは、多くのトレーニングデータを必要とせずに予測を提供する能力のために、予測に人気を博している。
本研究では,一般的な表表基盤モデルであるTabPFN-v2が時系列予測に効果的に適用可能であることを示す。
本稿では,TabPFN-v2と軽量機能工学を組み合わせた簡易な手法TabPFN-TSを導入する。
その単純さとコンパクトなサイズ(11Mパラメータ)にもかかわらず、TabPFN-TSは両方の予測タスクで公開GIFT-Evalリーダーボードのトップランクを獲得している。
特にTabPFN-v2は, 時系列に曝露することなく, 合成表状データのみに事前訓練されたことを考慮し, アブレーション研究を通じて, この驚くべき効果に寄与する要因について検討した。
この結果から,TabPFN-v2のような表形式の基盤モデルが時系列予測に有用な新しいアプローチである可能性が示唆された。
実装はhttps://github.com/PriorLabs/tabpfn-time-series.comで公開しています。
関連論文リスト
- Benchmarking Time Series Forecasting Models: From Statistical Techniques to Foundation Models in Real-World Applications [0.0]
時系列予測は、ホスピタリティ産業における運用インテリジェンスにとって不可欠である。
本研究では,14日間の地平線上での時間売上予測における統計,機械学習(ML),ディープラーニング,基礎モデルの性能を評価する。
論文 参考訳(メタデータ) (2025-02-05T17:30:31Z) - Sundial: A Family of Highly Capable Time Series Foundation Models [64.6322079384575]
Sundialはネイティブでフレキシブルでスケーラブルな時系列基盤モデルのファミリーです。
本モデルでは,事前分布を指定せずに事前学習を行い,複数の予測予測を生成できる。
TimeFlow Loss を通じてモード崩壊を緩和することにより、TimeBench 上で Sundial モデルのファミリーを事前訓練し、前例のないモデルキャパシティと一般化性能を示す。
論文 参考訳(メタデータ) (2025-02-02T14:52:50Z) - Forecast-PEFT: Parameter-Efficient Fine-Tuning for Pre-trained Motion Forecasting Models [68.23649978697027]
Forecast-PEFTは、モデルのパラメータの大部分を凍結し、新しく導入されたプロンプトとアダプタの調整に集中する微調整戦略である。
実験の結果,Forecast-PEFTは動作予測タスクにおいて従来のフルチューニング手法よりも優れていた。
Forecast-FTは予測性能をさらに改善し、従来のベースライン法よりも最大9.6%向上した。
論文 参考訳(メタデータ) (2024-07-28T19:18:59Z) - SparseTSF: Modeling Long-term Time Series Forecasting with 1k Parameters [16.966008476215258]
本稿では,長期時系列予測(LTSF)のための新しい,極めて軽量なモデルであるSparseTSFを紹介する。
SparseTSFの中心にはCross-Period Sparse Forecasting技術があり、時系列データの周期性と傾向を分離することで予測タスクを単純化する。
SparseTSFは目覚ましい一般化機能を示しており、限られた計算資源、小さなサンプル、低品質のデータを扱うシナリオに適している。
論文 参考訳(メタデータ) (2024-05-02T02:15:23Z) - Chronos: Learning the Language of Time Series [79.38691251254173]
Chronosは事前訓練された確率的時系列モデルのためのフレームワークである。
クロノスモデルでは,様々な領域の時系列データを利用して,未知の予測タスクにおけるゼロショット精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-03-12T16:53:54Z) - A Scalable and Transferable Time Series Prediction Framework for Demand
Forecasting [24.06534393565697]
時系列予測は多くのビジネス問題において最も不可欠でユビキタスなタスクの1つである。
本稿では,多種多様なアイテムの今後の需要を正確に予測できる,シンプルかつ強力なフレームワークであるフォレスティング・オーケストラ(Forchestra)を提案する。
論文 参考訳(メタデータ) (2024-02-29T18:01:07Z) - TuneTables: Context Optimization for Scalable Prior-Data Fitted Networks [90.00817095558094]
事前データ対応ネットワーク(PFN)は、事前学習とコンテキスト内学習を利用して、1つのフォワードパスで新しいタスクの強力なパフォーマンスを実現する。
我々は、大規模なデータセットをより小さな学習コンテキストに圧縮するPFNのパラメータ効率の良い微調整戦略であるTuneTablesを紹介した。
我々は、TuneTablesを解釈可能性ツールとして使用することができ、公平性目標を最適化することでバイアスを軽減することができることを示した。
論文 参考訳(メタデータ) (2024-02-17T00:02:23Z) - Scaling TabPFN: Sketching and Feature Selection for Tabular Prior-Data
Fitted Networks [31.82225213006849]
タブラル分類は伝統的に教師付きアルゴリズムに依存しており、トレーニングデータを用いて予測モデルのパラメータを推定する。
近年、TabPFNのようなPFN(Presideed Data Fitted Networks)は、コンテキスト内の表データの分類に成功している。
このようなモデルは非常に有望であるが、実際のデータに適用可能であるのは計算規模が限られているためである。
論文 参考訳(メタデータ) (2023-11-17T16:04:27Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z) - Generative Table Pre-training Empowers Models for Tabular Prediction [71.76829961276032]
本稿では,テーブル事前学習を利用した最初の試みであるTapTapを提案する。
TapTapは、プライバシ保護、リソースの低さ、価値計算の欠如、不均衡な分類など、さまざまなアプリケーションをサポートするための高品質な合成テーブルを生成することができる。
LightGBM、Multilayer Perceptron (MLP)、Transformerなどのバックボーンモデルと簡単に組み合わせることができる。
論文 参考訳(メタデータ) (2023-05-16T06:37:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。