論文の概要: PatchFormer: A Patch-Based Time Series Foundation Model with Hierarchical Masked Reconstruction and Cross-Domain Transfer Learning for Zero-Shot Multi-Horizon Forecasting
- arxiv url: http://arxiv.org/abs/2601.20845v1
- Date: Wed, 28 Jan 2026 18:45:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:07.101918
- Title: PatchFormer: A Patch-Based Time Series Foundation Model with Hierarchical Masked Reconstruction and Cross-Domain Transfer Learning for Zero-Shot Multi-Horizon Forecasting
- Title(参考訳): PatchFormer:Zero-Shot Multi-Horizon Forecastingのための階層型マスケッド再構成とクロスドメイントランスファー学習を備えたパッチベース時系列基礎モデル
- Authors: Olaf Yunus Laitinen Imanov, Derya Umut Kulali, Taner Yilmaz,
- Abstract要約: 時系列予測は、気候、エネルギー、医療、金融の応用における根本的な問題である。
PatchFormerは,自己教師型事前学習のための階層型マスク付き再構成を用いた,パッチベースの時系列基盤モデルである。
気象、エネルギー、交通、金融、医療にまたがる24のベンチマークデータセットの実験では、最先端のゼロショットマルチホライゾン予測が示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series forecasting is a fundamental problem with applications in climate, energy, healthcare, and finance. Many existing approaches require domain-specific feature engineering and substantial labeled data for each task. We introduce PatchFormer, a patch-based time series foundation model that uses hierarchical masked reconstruction for self-supervised pretraining and lightweight adapters for efficient transfer. PatchFormer segments time series into patches and learns multiscale temporal representations with learnable aggregation across temporal scales. Pretraining uses masked patch reconstruction with dynamic masking and objectives that encourage both local accuracy and global consistency, followed by cross-domain knowledge distillation. Experiments on 24 benchmark datasets spanning weather, energy, traffic, finance, and healthcare demonstrate state-of-the-art zero-shot multi-horizon forecasting, reducing mean squared error by 27.3 percent relative to strong baselines while requiring 94 percent less task-specific training data. The model exhibits near log-linear scaling with more pretraining data up to 100 billion points and processes length-512 sequences 3.8x faster than full-sequence transformers.
- Abstract(参考訳): 時系列予測は、気候、エネルギー、医療、金融の応用における根本的な問題である。
既存の多くのアプローチでは、各タスクにドメイン固有の機能エンジニアリングと実質的なラベル付きデータが必要です。
PatchFormerは,自己教師付き事前学習のための階層型マスク再構築と,効率的な転送のための軽量アダプタを用いた,パッチベースの時系列基盤モデルである。
PatchFormerは時系列をパッチに分割し、時間スケールで学習可能な集約でマルチスケールの時間表現を学習する。
Pretrainingは、動的マスキングと、局所的精度とグローバルな一貫性の両方を促進する目的を備えたマスク付きパッチ再構築と、クロスドメイン知識の蒸留を使用する。
気象、エネルギー、交通、金融、医療にまたがる24のベンチマークデータセットの実験では、最先端のゼロショットのマルチホライゾン予測が示され、平均2乗誤差は強いベースラインに対して27.3%減少し、タスク固有のトレーニングデータも94%削減された。
このモデルは、1000億ポイントまでの事前訓練されたデータと、フルシーケンス変換器よりも3.8倍高速な長さ512シーケンスを処理して、ログリニアに近いスケーリングを示す。
関連論文リスト
- EntroPE: Entropy-Guided Dynamic Patch Encoder for Time Series Forecasting [50.794700596484894]
IntroPE(Entropy-Guided Dynamic Patch)は,条件付きエントロピーによる遷移点を動的に検出する新しい時間情報フレームワークである。
これは、パッチの計算上の利点を維持しながら、時間構造を保存する。
長期予測ベンチマークによる実験では、EntroPEは精度と効率の両方を改善している。
論文 参考訳(メタデータ) (2025-09-30T12:09:56Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - Leveraging 2D Information for Long-term Time Series Forecasting with Vanilla Transformers [55.475142494272724]
時系列予測は、様々な領域における複雑な力学の理解と予測に不可欠である。
GridTSTは、革新的な多方向性の注意を用いた2つのアプローチの利点を組み合わせたモデルである。
このモデルは、さまざまな現実世界のデータセットに対して、常に最先端のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-05-22T16:41:21Z) - Attention as Robust Representation for Time Series Forecasting [23.292260325891032]
多くの実用化には時系列予測が不可欠である。
トランスフォーマーの重要な特徴、注意機構、データ表現を強化するために動的に埋め込みを融合させ、しばしば注意重みを副産物の役割に還元する。
提案手法は,時系列の主表現として注目重みを高くし,データポイント間の時間的関係を利用して予測精度を向上させる。
論文 参考訳(メタデータ) (2024-02-08T03:00:50Z) - TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - PatchMixer: A Patch-Mixing Architecture for Long-Term Time Series Forecasting [3.7244649185886978]
本稿では,新しいCNNモデルであるPatchMixerを提案する。
時間的情報を保存するために、置換不変な畳み込み構造を導入する。
最先端のCNNと比べれば、PatchMixerは3.9%、相対的な改善は21.2%である。
論文 参考訳(メタデータ) (2023-10-01T12:47:59Z) - Ti-MAE: Self-Supervised Masked Time Series Autoencoders [16.98069693152999]
本稿では,Ti-MAEという新しいフレームワークを提案する。
Ti-MAEは、埋め込み時系列データをランダムにマスクアウトし、オートエンコーダを学び、ポイントレベルでそれらを再構築する。
いくつかの公開実世界のデータセットの実験では、マスク付きオートエンコーディングのフレームワークが生データから直接強力な表現を学習できることが示されている。
論文 参考訳(メタデータ) (2023-01-21T03:20:23Z) - A Time Series is Worth 64 Words: Long-term Forecasting with Transformers [4.635547236305835]
本稿では,時系列予測と自己教師型表現学習のためのトランスフォーマーモデルを提案する。
i) 時系列をサブシリーズレベルのパッチに分割し、Transformerへの入力トークンとして機能させる。
PatchTSTは、SOTA Transformerベースのモデルと比較して、長期予測精度を著しく向上させることができる。
論文 参考訳(メタデータ) (2022-11-27T05:15:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。