論文の概要: IN-Flow: Instance Normalization Flow for Non-stationary Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2401.16777v2
- Date: Thu, 06 Feb 2025 21:04:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:53:22.596039
- Title: IN-Flow: Instance Normalization Flow for Non-stationary Time Series Forecasting
- Title(参考訳): In-Flow:非定常時系列予測のためのインスタンス正規化フロー
- Authors: Wei Fan, Shun Zheng, Pengyang Wang, Rui Xie, Kun Yi, Qi Zhang, Jiang Bian, Yanjie Fu,
- Abstract要約: 固定統計量に依存しない時系列予測のための分離された定式化を提案する。
また、時系列変換のための新しい可逆ネットワークであるインスタンス正規化フロー(IN-Flow)を提案する。
- 参考スコア(独自算出の注目度): 38.4809915448213
- License:
- Abstract: Due to the non-stationarity of time series, the distribution shift problem largely hinders the performance of time series forecasting. Existing solutions either rely on using certain statistics to specify the shift, or developing specific mechanisms for certain network architectures. However, the former would fail for the unknown shift beyond simple statistics, while the latter has limited compatibility on different forecasting models. To overcome these problems, we first propose a decoupled formulation for time series forecasting, with no reliance on fixed statistics and no restriction on forecasting architectures. This formulation regards the removing-shift procedure as a special transformation between a raw distribution and a desired target distribution and separates it from the forecasting. Such a formulation is further formalized into a bi-level optimization problem, to enable the joint learning of the transformation (outer loop) and forecasting (inner loop). Moreover, the special requirements of expressiveness and bi-direction for the transformation motivate us to propose instance normalization flow (IN-Flow), a novel invertible network for time series transformation. Different from the classic "normalizing flow" models, IN-Flow does not aim for normalizing input to the prior distribution (e.g., Gaussian distribution) for generation, but creatively transforms time series distribution by stacking normalization layers and flow-based invertible networks, which is thus named "normalization" flow. Finally, we have conducted extensive experiments on both synthetic data and real-world data, which demonstrate the superiority of our method.
- Abstract(参考訳): 時系列の非定常性のため、分布シフト問題は時系列予測の性能を著しく損なう。
既存のソリューションは、シフトを指定するために特定の統計情報を使用するか、特定のネットワークアーキテクチャのための特定のメカニズムを開発するかに依存する。
しかし、前者は単純な統計を超越した未知のシフトで失敗し、後者は異なる予測モデルとの互換性に制限がある。
これらの問題を克服するため、まず時系列予測のための分離された定式化を提案し、固定統計に依存せず、予測アーキテクチャにも制約がない。
この定式化は、除去シフト手順を生の分布と所望の目標分布との特別な変換とみなし、予測から分離する。
このような定式化は、変換(外ループ)と予測(内ループ)の合同学習を可能にするために、二段階最適化問題にさらに形式化される。
さらに、この変換の表現性や双方向性に関する特別な要件は、時系列変換のための新しい非可逆ネットワークであるインスタンス正規化フロー(IN-Flow)を提案する動機となっている。
古典的な「正規化フロー」モデルとは異なり、IN-Flowは生成のための先行分布(例えばガウス分布)への入力を正規化することではなく、正規化層とフローベースの非可逆ネットワークを積み重ねることで時系列分布を創造的に変換する。
最後に,合成データと実世界のデータの両方について広範な実験を行い,本手法の優位性を実証した。
関連論文リスト
- Flow-based Conformal Prediction for Multi-dimensional Time Series [9.900139803164372]
本稿では,トランスフォーマーと正規化フローを統合することで,2つの課題に対処する新しい共形予測手法を提案する。
トランスフォーマーは時系列の歴史的文脈を符号化し、正規化フローは、ベース分布から符号化された歴史的文脈に基づいて条件付けられた非整合性のスコアの分布への変換を学習する。
提案手法は,シミュレーションおよび実世界の時系列データセットを用いた包括的実験により,所望のカバレッジを満足しながら,ベースラインと比較して予測領域が小さいことを実証する。
論文 参考訳(メタデータ) (2025-02-08T22:04:05Z) - Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための生成変換器Timer-XLを提案する。
Timer-XLは、統一されたアプローチにより、挑戦的な予測ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - Frequency Adaptive Normalization For Non-stationary Time Series Forecasting [7.881136718623066]
時系列予測は、トレンドと季節パターンを進化させる非定常データに対処する必要がある。
非定常性に対処するために、ある統計測度でこの傾向からの影響を軽減するために、最近インスタンス正規化が提案されている。
本稿では、周波数適応正規化(FAN)と呼ばれる新しいインスタンス正規化ソリューションを提案する。
論文 参考訳(メタデータ) (2024-09-30T15:07:16Z) - Evolving Multi-Scale Normalization for Time Series Forecasting under Distribution Shifts [20.02869280775877]
本稿では,分散シフト問題に対処するモデル非依存型マルチスケール正規化(EvoMSN)フレームワークを提案する。
ベンチマークデータセット上での5つの主流予測手法の性能向上におけるEvoMSNの有効性を評価する。
論文 参考訳(メタデータ) (2024-09-29T14:26:22Z) - Marginalization Consistent Mixture of Separable Flows for Probabilistic Irregular Time Series Forecasting [4.714246221974192]
我々は,新しい確率的不規則時系列予測モデル,Marginalization Consistent Mixtures of Separable Flows (moses)を開発した。
mosesは、他の最先端のマーカライゼーション一貫性モデルより優れ、ProFITiと同等だが、ProFITiと異なり、マーカライゼーション一貫性を保証する。
論文 参考訳(メタデータ) (2024-06-11T13:28:43Z) - Diffusion models for probabilistic programming [56.47577824219207]
拡散モデル変分推論(DMVI)は確率型プログラミング言語(PPL)における自動近似推論手法である
DMVIは実装が容易で、例えば正規化フローを用いた変分推論の欠点を伴わずに、PPLでヘイズルフリー推論が可能であり、基礎となるニューラルネットワークモデルに制約を課さない。
論文 参考訳(メタデータ) (2023-11-01T12:17:05Z) - End-to-End Modeling Hierarchical Time Series Using Autoregressive
Transformer and Conditional Normalizing Flow based Reconciliation [13.447952588934337]
本研究では, 条件付き正規化フローベース自己回帰変換器の整合に基づく, 終端から終端までの時系列予測モデルを提案する。
他の最先端手法とは異なり、明示的な後処理ステップを必要とせずに予測と和解を同時に達成する。
論文 参考訳(メタデータ) (2022-12-28T05:43:57Z) - Efficient CDF Approximations for Normalizing Flows [64.60846767084877]
正規化フローの微分同相性に基づいて、閉領域上の累積分布関数(CDF)を推定する。
一般的なフローアーキテクチャとUCIデータセットに関する実験は,従来の推定器と比較して,サンプル効率が著しく向上したことを示している。
論文 参考訳(メタデータ) (2022-02-23T06:11:49Z) - Causally-motivated Shortcut Removal Using Auxiliary Labels [63.686580185674195]
このようなリスク不変予測器の学習に重要な課題はショートカット学習である。
この課題に対処するために、フレキシブルで因果的なアプローチを提案する。
この因果的動機付けされた正規化スキームが堅牢な予測子を生み出すことを理論的および実証的に示す。
論文 参考訳(メタデータ) (2021-05-13T16:58:45Z) - Generalized Entropy Regularization or: There's Nothing Special about
Label Smoothing [83.78668073898001]
本稿では, ラベル平滑化を含むエントロピー正則化器群を紹介する。
モデル性能のばらつきはモデルのエントロピーによって大きく説明できる。
我々は,他のエントロピー正規化手法の使用を推奨する。
論文 参考訳(メタデータ) (2020-05-02T12:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。