論文の概要: When and How: Learning Identifiable Latent States for Nonstationary Time
Series Forecasting
- arxiv url: http://arxiv.org/abs/2402.12767v1
- Date: Tue, 20 Feb 2024 07:16:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 16:49:09.006278
- Title: When and How: Learning Identifiable Latent States for Nonstationary Time
Series Forecasting
- Title(参考訳): 非定常時系列予測のための潜在状態の学習の時期と方法
- Authors: Zijian Li, Ruichu Cai, Zhenhui Yang, Haiqin Huang, Guangyi Chen, Yifan
Shen, Zhengming Chen, Xiangchen Song, Zhifeng Hao, Kun Zhang
- Abstract要約: 識別可能なlatEnt stAtes (IDEA) を学習し、分布シフトの発生を検知する。
我々は、十分な観測仮定により、静止状態と非定常状態をさらに遠ざけている。
温和な条件下では、潜伏環境と定常・非定常変数が識別可能であることを示す。
これらの理論に基づいて,自己回帰型隠れマルコフモデルを用いて潜伏環境を推定するIDEAモデルを考案した。
- 参考スコア(独自算出の注目度): 30.97744070962643
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Temporal distribution shifts are ubiquitous in time series data. One of the
most popular methods assumes that the temporal distribution shift occurs
uniformly to disentangle the stationary and nonstationary dependencies. But
this assumption is difficult to meet, as we do not know when the distribution
shifts occur. To solve this problem, we propose to learn IDentifiable latEnt
stAtes (IDEA) to detect when the distribution shifts occur. Beyond that, we
further disentangle the stationary and nonstationary latent states via
sufficient observation assumption to learn how the latent states change.
Specifically, we formalize the causal process with environment-irrelated
station- ary and environment-related nonstationary variables. Under mild
conditions, we show that latent environments and stationary/nonstationary
variables are identifiable. Based on these theories, we devise the IDEA model,
which incorporates an autoregressive hidden Markov model to estimate latent
environments and modular prior networks to identify latent states. The IDEA
model outperforms several latest nonstationary forecasting methods on various
benchmark datasets, highlighting its advantages in real-world scenarios.
- Abstract(参考訳): 時系列データでは時間分布シフトがユビキタスである。
最も一般的な方法の1つは、時間分布シフトが定常的および非定常的依存関係を乱すために均一に起こると仮定している。
しかし,分布がいつ変化するかは分かっていないので,この仮定を満たすことは困難である。
そこで本研究では,IDentible latEnt stAtes (IDEA) を学習し,分布変化の発生を検出することを提案する。
さらに、定常状態と非定常状態とを十分な観測仮定で分離し、潜在状態がどのように変化するかを学ぶ。
具体的には,環境関係のステーション・アリーと環境関連の非定常変数で因果過程を定式化する。
温和な条件下では、潜伏環境と定常・非定常変数が識別可能であることを示す。
これらの理論に基づいて,自己回帰型隠れマルコフモデルを組み込んだIDEAモデルを考案し,潜伏環境を推定し,潜伏状態を特定するための事前ネットワークをモジュール化する。
IDEAモデルは、さまざまなベンチマークデータセット上で最新の非定常予測方法よりも優れており、実際のシナリオにおけるその利点を強調している。
関連論文リスト
- Causal Temporal Representation Learning with Nonstationary Sparse Transition [22.6420431022419]
Causal Temporal Representation Learning (Ctrl) 法は、複雑な非定常時間列の時間的因果ダイナミクスを特定することを目的としている。
この研究は、人間の直感的な理解と整合したスパース遷移の仮定を採用し、理論的な観点から識別可能性の結果を提示している。
本稿では,非定常スパース遷移を用いた因果時間表現学習(CtrlNS)を提案する。
論文 参考訳(メタデータ) (2024-09-05T00:38:27Z) - On the Identification of Temporally Causal Representation with Instantaneous Dependence [50.14432597910128]
時間的因果表現学習は時系列観測から潜在因果過程を特定することを目的としている。
ほとんどの方法は、潜在因果過程が即時関係を持たないという仮定を必要とする。
我々は,インスタントtextbfOus textbfLatent dynamics のための textbfIDentification フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-24T08:08:05Z) - Probabilistic Learning of Multivariate Time Series with Temporal
Irregularity [25.91078012394032]
不均一な時間間隔やコンポーネントのミスアライメントを含む時間的不規則。
我々は,非ガウス的データ分布を非パラメトリック的に表現する条件フロー表現を開発する。
提案手法の広範な適用性と優位性は,実世界のデータセット上でのアブレーション研究とテストを通じて,既存のアプローチと比較することによって確認される。
論文 参考訳(メタデータ) (2023-06-15T14:08:48Z) - Unleashing the Power of Graph Data Augmentation on Covariate
Distribution Shift [50.98086766507025]
本稿では,AIA(Adversarial Invariant Augmentation)という,シンプルで効率の良いデータ拡張戦略を提案する。
AIAは、拡張プロセス中に元の安定した特徴を同時に保存しながら、新しい環境をエクスポーレーションし、生成することを目的としている。
論文 参考訳(メタデータ) (2022-11-05T07:55:55Z) - Temporally Disentangled Representation Learning [14.762231867144065]
下位の潜伏変数とその因果関係が任意の非パラメトリック因果関係を持つかどうかは不明である。
時間遅延因果変数を復元する基本フレームワークである textbftextttTDRL を提案する。
私たちのアプローチは、このモジュラー表現を正しく活用しない既存のベースラインをかなり上回ります。
論文 参考訳(メタデータ) (2022-10-24T23:02:49Z) - DynaConF: Dynamic Forecasting of Non-Stationary Time Series [4.286546152336783]
非定常条件分布を時間とともにモデル化する新しい手法を提案する。
我々のモデルは、最先端のディープラーニングソリューションよりも定常的でない時系列に適応できることを示します。
論文 参考訳(メタデータ) (2022-09-17T21:40:02Z) - Continuous-Time Modeling of Counterfactual Outcomes Using Neural
Controlled Differential Equations [84.42837346400151]
反現実的な結果を予測することは、パーソナライズされたヘルスケアをアンロックする可能性がある。
既存の因果推論アプローチでは、観察と治療決定の間の通常の離散時間間隔が考慮されている。
そこで本研究では,腫瘍増殖モデルに基づく制御可能なシミュレーション環境を提案する。
論文 参考訳(メタデータ) (2022-06-16T17:15:15Z) - Weakly Supervised Representation Learning with Sparse Perturbations [82.39171485023276]
潜伏変数のスパース摂動によって生じる観測の監督が弱い場合、未知の連続潜伏分布の下で識別が達成可能であることを示す。
本稿では,この理論に基づく自然な推定手法を提案し,それを低次元の合成および画像に基づく実験で説明する。
論文 参考訳(メタデータ) (2022-06-02T15:30:07Z) - Differentiable Invariant Causal Discovery [106.87950048845308]
観測データから因果構造を学ぶことは、機械学習の基本的な課題である。
本稿では,不特定変分因果解法(DICD)を提案する。
合成および実世界のデータセットに関する大規模な実験は、DICDがSHDの36%まで最先端の因果発見手法より優れていることを検証している。
論文 参考訳(メタデータ) (2022-05-31T09:29:07Z) - Learning Interpretable Deep State Space Model for Probabilistic Time
Series Forecasting [98.57851612518758]
確率的時系列予測は、その歴史に基づいて将来の分布を推定する。
本稿では,非線形エミッションモデルと遷移モデルとをネットワークによってパラメータ化した,確率的時系列予測のための深部状態空間モデルを提案する。
実験では,我々のモデルが正確かつ鋭い確率予測を生成することを示す。
論文 参考訳(メタデータ) (2021-01-31T06:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。