論文の概要: Selective Learning for Deep Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2510.25207v1
- Date: Wed, 29 Oct 2025 06:18:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:45.183084
- Title: Selective Learning for Deep Time Series Forecasting
- Title(参考訳): ディープ時系列予測のための選択学習
- Authors: Yisong Fu, Zezhi Shao, Chengqing Yu, Yujie Li, Zhulin An, Qi Wang, Yongjun Xu, Fei Wang,
- Abstract要約: 本稿では,深層時系列予測のための新しい選択学習戦略を提案する。
選択学習は、典型的な最先端深層モデルの予測性能を著しく向上させることができることを示す。
- 参考スコア(独自算出の注目度): 23.980466929406035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Benefiting from high capacity for capturing complex temporal patterns, deep learning (DL) has significantly advanced time series forecasting (TSF). However, deep models tend to suffer from severe overfitting due to the inherent vulnerability of time series to noise and anomalies. The prevailing DL paradigm uniformly optimizes all timesteps through the MSE loss and learns those uncertain and anomalous timesteps without difference, ultimately resulting in overfitting. To address this, we propose a novel selective learning strategy for deep TSF. Specifically, selective learning screens a subset of the whole timesteps to calculate the MSE loss in optimization, guiding the model to focus on generalizable timesteps while disregarding non-generalizable ones. Our framework introduces a dual-mask mechanism to target timesteps: (1) an uncertainty mask leveraging residual entropy to filter uncertain timesteps, and (2) an anomaly mask employing residual lower bound estimation to exclude anomalous timesteps. Extensive experiments across eight real-world datasets demonstrate that selective learning can significantly improve the predictive performance for typical state-of-the-art deep models, including 37.4% MSE reduction for Informer, 8.4% for TimesNet, and 6.5% for iTransformer.
- Abstract(参考訳): 複雑な時間パターンを捉えるために高い能力から恩恵を受けるため、ディープラーニング(DL)は大幅に進歩した時系列予測(TSF)を持つ。
しかしながら、ディープモデルは、ノイズや異常に対する時系列の固有の脆弱性のために、厳しい過適合に悩まされる傾向にある。
一般的なDLパラダイムは、MSE損失によるすべてのタイムステップを均一に最適化し、相違なく不確実かつ異常なタイムステップを学習し、最終的に過度に適合する。
そこで本研究では,深部TSFのための新しい選択学習戦略を提案する。
具体的には、選択学習は、最適化におけるMSE損失を計算するために、全タイムステップのサブセットを画面に表示し、一般化不可能なタイムステップを無視しながら、モデルを一般化可能なタイムステップに集中するよう誘導する。
本フレームワークでは,(1)残差エントロピーを利用して不確実な時間ステップをフィルタリングする不確実マスク,(2)残差下界推定を用いた異常マスクを用いて異常な時間ステップを除外する,という2つのマスク機構を導入している。
8つの実世界のデータセットにわたる大規模な実験により、選択学習は、Informerの37.4%のMSE削減、TimesNetの8.4%、iTransformerの6.5%といった、典型的な最先端の深層モデルの予測性能を大幅に改善できることが示された。
関連論文リスト
- SynCast: Synergizing Contradictions in Precipitation Nowcasting via Diffusion Sequential Preference Optimization [62.958457694151384]
本研究では,大規模な言語モデルにおける人的フィードバックからの強化学習の成功を動機として,降水量の最適化を初めて導入する。
第一段階では、フレームワークはFARを減らすことに焦点を当て、誤報を効果的に抑えるためにモデルを訓練する。
論文 参考訳(メタデータ) (2025-10-22T16:11:22Z) - Deciphering Invariant Feature Decoupling in Source-free Time Series Forecasting with Proxy Denoising [18.997461947153496]
TimePDは、プロキシを飾るソースフリーの時系列予測フレームワークである。
実世界のデータセットに関する大規模な実験は、TimePDの有効性についての洞察を提供する。
論文 参考訳(メタデータ) (2025-10-07T05:29:18Z) - Time Is a Feature: Exploiting Temporal Dynamics in Diffusion Language Models [57.474294329887236]
拡散大言語モデル (dLLMs) は反復的 denoising を通じてテキストを生成する。
現在のデコード戦略は、最終的な出力に有利なリッチな中間予測を捨てている。
時間的整合性を利用する2つの相補的手法を導入する。
論文 参考訳(メタデータ) (2025-08-12T17:59:57Z) - MMFNet: Multi-Scale Frequency Masking Neural Network for Multivariate Time Series Forecasting [6.733646592789575]
長期時系列予測(LTSF)は、電力消費計画、財務予測、疾病の伝播分析など、多くの実世界の応用において重要である。
MMFNetは,マルチスケールマスク付き周波数分解手法を利用して,長期多変量予測を向上する新しいモデルである。
MMFNetは、時系列を様々なスケールの周波数セグメントに変換し、学習可能なマスクを用いて非関連成分を適応的にフィルタリングすることで、微細で中間的で粗い時間パターンをキャプチャする。
論文 参考訳(メタデータ) (2024-10-02T22:38:20Z) - DeformTime: Capturing Variable Dependencies with Deformable Attention for Time Series Forecasting [0.34530027457862006]
入力空間から相関時間パターンを捕捉しようとするニューラルネットワークアーキテクチャであるDeformTimeを提案する。
これまでに確立されたベンチマークを用いて,6つのMTSデータセットに関する広範な実験を行った。
その結果,DeformTimeはMSS予測タスクの大部分にわたる従来の競合手法と比較して精度が向上することがわかった。
論文 参考訳(メタデータ) (2024-06-11T16:45:48Z) - Towards Flexible Time-to-event Modeling: Optimizing Neural Networks via
Rank Regression [17.684526928033065]
我々はDART(Time-to-event Prediction)のためのDeep AFT Rank-regressionモデルを導入する。
このモデルは、表現学習において効率的で信頼性の高いゲハンのランク統計に基づく客観的関数を用いる。
提案手法は, 生存時間分布に分布仮定を課さない半パラメトリックなAFTモデリング手法である。
論文 参考訳(メタデータ) (2023-07-16T13:58:28Z) - Adaptive Memory Networks with Self-supervised Learning for Unsupervised
Anomaly Detection [54.76993389109327]
教師なし異常検出は、通常のデータのみをトレーニングすることで、目に見えない異常を検出するモデルを構築することを目的としている。
本稿では,これらの課題に対処するために,自己教師付き学習(AMSL)を用いた適応記憶ネットワーク(Adaptive Memory Network)を提案する。
AMSLには、一般的な正規パターンを学ぶための自己教師付き学習モジュールと、リッチな特徴表現を学ぶための適応型メモリ融合モジュールが組み込まれている。
論文 参考訳(メタデータ) (2022-01-03T03:40:21Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。