論文の概要: Amortized Predictability-aware Training Framework for Time Series Forecasting and Classification
- arxiv url: http://arxiv.org/abs/2602.16224v1
- Date: Wed, 18 Feb 2026 06:59:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.534933
- Title: Amortized Predictability-aware Training Framework for Time Series Forecasting and Classification
- Title(参考訳): 時系列予測と分類のための補正予測可能性を考慮した学習フレームワーク
- Authors: Xu Zhang, Peng Wang, Yichen Li, Wei Wang,
- Abstract要約: 時系列予測 (TSF) と時系列分類 (TSC) の双方に対して, 一般的なアモータイズ予測可能性を考慮したトレーニングフレームワーク (APTF) を提案する。
APTFは2つの重要な設計を導入し、予測可能性の低いモデルから適切な学習をしながら、モデルが高い予測可能性のサンプルに集中できるようにする。
- 参考スコア(独自算出の注目度): 10.816479922364097
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series data are prone to noise in various domains, and training samples may contain low-predictability patterns that deviate from the normal data distribution, leading to training instability or convergence to poor local minima. Therefore, mitigating the adverse effects of low-predictability samples is crucial for time series analysis tasks such as time series forecasting (TSF) and time series classification (TSC). While many deep learning models have achieved promising performance, few consider how to identify and penalize low-predictability samples to improve model performance from the training perspective. To fill this gap, we propose a general Amortized Predictability-aware Training Framework (APTF) for both TSF and TSC. APTF introduces two key designs that enable the model to focus on high-predictability samples while still learning appropriately from low-predictability ones: (i) a Hierarchical Predictability-aware Loss (HPL) that dynamically identifies low-predictability samples and progressively expands their loss penalty as training evolves, and (ii) an amortization model that mitigates predictability estimation errors caused by model bias, further enhancing HPL's effectiveness. The code is available at https://github.com/Meteor-Stars/APTF.
- Abstract(参考訳): 時系列データは、様々な領域でノイズを起こす傾向があり、トレーニングサンプルには、通常のデータ分布から逸脱する低い予測可能性パターンが含まれており、トレーニングの不安定性やローカルなミニマへの収束につながる可能性がある。
そのため、時系列予測(TSF)や時系列分類(TSC)といった時系列分析タスクにおいて、低予測可能性サンプルの副作用を軽減することが重要である。
多くのディープラーニングモデルは、有望なパフォーマンスを達成したが、トレーニングの観点からモデルパフォーマンスを改善するために、低予測可能性サンプルを識別し、ペナルティ化する方法を考える方法は、ほとんどない。
このギャップを埋めるために,TSF と TSC の双方に対して,Amortized Predictability-Aware Training Framework (APTF) を提案する。
APTFは、予測可能性の低いモデルから適切な学習をしながら、モデルが高い予測可能性のサンプルに集中できるようにする2つの重要な設計を導入している。
i)低予測可能性サンプルを動的に識別し、訓練が進むにつれて徐々に損失ペナルティを拡大する階層的予測可能性認識損失(HPL:hierarchical Predictability-aware Loss)
(II)モデルバイアスによる予測可能性推定誤差を軽減し,HPLの有効性を高めるアモータイズモデル。
コードはhttps://github.com/Meteor-Stars/APTFで公開されている。
関連論文リスト
- A Unified Frequency Domain Decomposition Framework for Interpretable and Robust Time Series Forecasting [81.73338008264115]
時系列予測の現在のアプローチは、時間領域であれ周波数領域であれ、主に線形層やトランスフォーマーに基づいたディープラーニングモデルを使用する。
本稿では,多種多様な時系列を数学的に抽象化する統合周波数領域分解フレームワークFIREを提案する。
火は長期予測ベンチマークで最先端のモデルを一貫して上回る。
論文 参考訳(メタデータ) (2025-10-11T09:59:25Z) - Learning Robust Diffusion Models from Imprecise Supervision [75.53546939251146]
DMISは、Imrecise Supervisionから堅牢な条件拡散モデルをトレーニングするための統一されたフレームワークである。
我々のフレームワークは、可能性から派生し、その目的を生成的および分類的構成要素に分解する。
画像生成、弱教師付き学習、データセットの凝縮をカバーし、様々な形の不正確な監視実験を行い、DMISが常に高品質でクラス差別的なサンプルを生成することを示した。
論文 参考訳(メタデータ) (2025-10-03T14:00:32Z) - RDIT: Residual-based Diffusion Implicit Models for Probabilistic Time Series Forecasting [4.140149411004857]
RDITは、点推定と残差に基づく条件拡散と双方向のMambaネットワークを組み合わせたプラグアンドプレイフレームワークである。
RDITは, 強いベースラインに比べてCRPSの低下, 高速推論, カバレッジの向上を実現している。
論文 参考訳(メタデータ) (2025-09-02T14:06:29Z) - Enhancing Transformer-Based Foundation Models for Time Series Forecasting via Bagging, Boosting and Statistical Ensembles [7.787518725874443]
時系列基礎モデル(TSFM)は、時系列予測、異常検出、分類、計算のための強力な一般化とゼロショット能力を示している。
本稿では, 統計的およびアンサンブルに基づくエンハンスメント技術を用いて, 頑健さと精度を向上させる手法について検討する。
論文 参考訳(メタデータ) (2025-08-18T04:06:26Z) - On conditional diffusion models for PDE simulations [53.01911265639582]
スパース観測の予測と同化のためのスコアベース拡散モデルについて検討した。
本稿では,予測性能を大幅に向上させる自動回帰サンプリング手法を提案する。
また,条件付きスコアベースモデルに対する新たなトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2024-10-21T18:31:04Z) - Hierarchical Classification Auxiliary Network for Time Series Forecasting [26.92086695600799]
本稿では,時系列値をトークン化して,クロスエントロピー損失による予測モデルをトレーニングする手法を提案する。
HCANは、異なる階層レベルで多粒度高エントロピー特徴を統合する。
HCANと最先端の予測モデルを統合する実験は、いくつかの実世界のデータセットのベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-05-29T10:38:25Z) - Loss Shaping Constraints for Long-Term Time Series Forecasting [79.3533114027664]
本稿では,長期時系列予測のための制約付き学習手法を提案する。
提案手法は, 予測ウィンドウ上でエラーを発生させながら, 時系列ベンチマークにおける競合平均性能を示すことを示すための, 実用的なプリマル・デュアルアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-14T18:20:44Z) - Predict, Refine, Synthesize: Self-Guiding Diffusion Models for
Probabilistic Time Series Forecasting [10.491628898499684]
時系列の非条件学習拡散モデルであるTSDiffを提案する。
提案する自己誘導機構により、補助的ネットワークやトレーニング手順の変更を必要とせず、推論中に下流タスクに対してTSDiffを条件付けることができる。
本研究では,予測,改良,合成データ生成という3つの時系列タスクにおいて,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-07-21T10:56:36Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。