論文の概要: Dish-TS: A General Paradigm for Alleviating Distribution Shift in Time
Series Forecasting
- arxiv url: http://arxiv.org/abs/2302.14829v1
- Date: Wed, 22 Feb 2023 07:56:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-05 05:33:45.036535
- Title: Dish-TS: A General Paradigm for Alleviating Distribution Shift in Time
Series Forecasting
- Title(参考訳): Dish-TS: 時系列予測における分散シフト緩和のための汎用パラダイム
- Authors: Wei Fan, Pengyang Wang, Dongkun Wang, Dongjie Wang, Yuanchun Zhou,
Yanjie Fu
- Abstract要約: 本稿では,時系列予測における分布シフトを緩和する汎用的ニューラルネットワークパラダイムであるDish-TSを紹介する。
Dish-TSはDual-CONETフレームワークとして構成され、入力空間と出力空間の分布を個別に学習する。
実験の結果、Dish-TSは平均20%以上の改善で予測モデルを継続的に強化している。
- 参考スコア(独自算出の注目度): 24.50123780737505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The distribution shift in Time Series Forecasting (TSF), indicating series
distribution changes over time, largely hinders the performance of TSF models.
Existing works towards distribution shift in time series are mostly limited in
the quantification of distribution and, more importantly, overlook the
potential shift between lookback and horizon windows. To address above
challenges, we systematically summarize the distribution shift in TSF into two
categories. Regarding lookback windows as input-space and horizon windows as
output-space, there exist (i) intra-space shift, that the distribution within
the input-space keeps shifted over time, and (ii) inter-space shift, that the
distribution is shifted between input-space and output-space. Then we
introduce, Dish-TS, a general neural paradigm for alleviating distribution
shift in TSF. Specifically, for better distribution estimation, we propose the
coefficient net (CONET), which can be any neural architectures, to map input
sequences into learnable distribution coefficients. To relieve intra-space and
inter-space shift, we organize Dish-TS as a Dual-CONET framework to separately
learn the distribution of input- and output-space, which naturally captures the
distribution difference of two spaces. In addition, we introduce a more
effective training strategy for intractable CONET learning. Finally, we conduct
extensive experiments on several datasets coupled with different
state-of-the-art forecasting models. Experimental results show Dish-TS
consistently boosts them with a more than 20% average improvement. Code is
available.
- Abstract(参考訳): 時系列予測(TSF)における分布シフトは、時系列分布の変化を示すものであり、主にTSFモデルの性能を妨げる。
時系列の分布シフトに向けた既存の研究は、分布の定量化や、さらに重要なことに、ルックバックウィンドウと水平窓の間の潜在的なシフトを見落としている。
上記の課題に対処するため、TSFにおける分布シフトを系統的に2つのカテゴリにまとめる。
入力空間としての見返りウィンドウと出力空間としての地平線ウィンドウについて
(i)空間内シフト、入力空間内の分布が時間とともに変化し続けること、及び
(ii)空間間シフト、つまり、分布が入力空間と出力空間の間でシフトされる。
次に,tsfにおける分布シフトを緩和するための汎用ニューラルパラダイムであるdish-tsを紹介する。
具体的には、より優れた分布推定のために、入力シーケンスを学習可能な分布係数にマッピングするニューラルネットワークである係数ネット(CONET)を提案する。
空間内および空間間シフトを緩和するため、Dish-TSをDual-CONETフレームワークとして編成し、入力空間と出力空間の分布を個別に学習する。
さらに、難解なCONET学習のためのより効果的なトレーニング戦略を導入する。
最後に、様々な最先端予測モデルと組み合わせた複数のデータセットに関する広範な実験を行う。
実験の結果、Dish-TSは平均20%以上の改善で継続的に改善している。
コードは利用可能。
関連論文リスト
- Adapting to Covariate Shift in Real-time by Encoding Trees with Motion Equations [7.763889076389205]
Xenovert は完全な二分木で、連続的な入力空間を連続的な入力の流れを受信しながら、いくつかの均一な密度の間隔に適応的に分割する。
このプロセスは、ソースの分布をシフトしたターゲットの分布に間接的にマッピングし、データと下流デコーダ/運用の関係を保存する。
本稿では、Xenovertと統合されたニューラルネットワークが、5つのシフトしたデータセットのうち4つにおいて、より良い結果をもたらすことを実証した。
論文 参考訳(メタデータ) (2024-04-08T03:29:58Z) - Proxy Methods for Domain Adaptation [78.03254010884783]
プロキシ変数は、遅延変数を明示的にリカバリしたりモデル化したりすることなく、分散シフトへの適応を可能にする。
両設定の複雑な分散シフトに適応する2段階のカーネル推定手法を開発した。
論文 参考訳(メタデータ) (2024-03-12T09:32:41Z) - Out-of-Distribution Generalized Dynamic Graph Neural Network with
Disentangled Intervention and Invariance Promotion [61.751257172868186]
動的グラフニューラルネットワーク(DyGNN)は、グラフと時間力学を利用して強力な予測能力を実証している。
既存のDyGNNは、動的グラフに自然に存在する分散シフトを処理できない。
論文 参考訳(メタデータ) (2023-11-24T02:42:42Z) - Hierarchical Semi-Implicit Variational Inference with Application to
Diffusion Model Acceleration [20.820242501141834]
半単純変分推論 (SIVI) を導入し, 解析的変分系列を拡大した。
我々は、より表現力のある多層構造を実現するためにSIVIを一般化するHSIVIと呼ばれる階層的半単純変分推論を提案する。
論文 参考訳(メタデータ) (2023-10-26T04:52:28Z) - T-SaS: Toward Shift-aware Dynamic Adaptation for Streaming Data [9.829993835712422]
本稿では,突発的な分散シフトの存在下での逐次データモデリングの課題を解決することを目的とする。
具体的には、データの急激なシフトを捉えるために、離散分布モデリング変数を持つT-SaSと呼ばれるベイズフレームワークを設計する。
提案手法は,全ネットワーク上でどのニューロンを活性化すべきかを学習することで,各分布の特定のモデルパラメータを学習する。
論文 参考訳(メタデータ) (2023-09-05T22:55:10Z) - Distribution Shift Inversion for Out-of-Distribution Prediction [57.22301285120695]
本稿では,OoD(Out-of-Distribution)予測のためのポータブル分布シフト変換アルゴリズムを提案する。
提案手法は,OoDアルゴリズムを広範囲に接続した場合に,一般的な性能向上をもたらすことを示す。
論文 参考訳(メタデータ) (2023-06-14T08:00:49Z) - A benchmark with decomposed distribution shifts for 360 monocular depth
estimation [22.893165951086953]
我々は,コンピュータビジョンタスクの分布シフトベンチマーク,単眼深度推定に貢献する。
当社の差別化は、非制御テストの非制御データのより広範な分布シフトを3つの異なる分布シフトに分解することである。
論文 参考訳(メタデータ) (2021-12-01T11:48:23Z) - WILDS: A Benchmark of in-the-Wild Distribution Shifts [157.53410583509924]
分散シフトは、ワイルドにデプロイされた機械学習システムの精度を実質的に低下させることができる。
分散シフトの多様な範囲を反映した8つのベンチマークデータセットのキュレーションコレクションであるWILDSを紹介します。
本研究は, 標準訓練の結果, 分布性能よりも, 分布域外性能が有意に低下することを示す。
論文 参考訳(メタデータ) (2020-12-14T11:14:56Z) - Linear Optimal Transport Embedding: Provable Wasserstein classification
for certain rigid transformations and perturbations [79.23797234241471]
分布の区別は多くの科学分野において重要な問題である。
線形最適輸送(LOT)は分布の空間を$L2$-スペースに埋め込む。
複数の分布分類問題に対するLOTの利点を実証する。
論文 参考訳(メタデータ) (2020-08-20T19:09:33Z) - AI Giving Back to Statistics? Discovery of the Coordinate System of
Univariate Distributions by Beta Variational Autoencoder [0.0]
本稿では、単変量経験分布を分類し、累積分布関数(CDF)の入力に基づいて2次元の潜伏空間で表現するためのニューラルネットワークのトレーニング経験について論じる。
潜在2次元座標系上の表現は、CDFの形状、基礎となる理論分布とそのパラメータの分類確率、情報エントロピー、歪みなど、重要な分布特性を乱す実世界のデータの付加メタデータと見なすことができる。
論文 参考訳(メタデータ) (2020-04-06T14:11:13Z) - Embedding Propagation: Smoother Manifold for Few-Shot Classification [131.81692677836202]
本稿では, 組込み伝搬を非教師なし非パラメトリック正規化器として, 数ショット分類における多様体平滑化に用いることを提案する。
埋め込み伝播がより滑らかな埋め込み多様体を生み出すことを実証的に示す。
複数の半教師付き学習シナリオにおいて,埋め込み伝搬によりモデルの精度が最大16%向上することを示す。
論文 参考訳(メタデータ) (2020-03-09T13:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。