論文の概要: Neural MJD: Neural Non-Stationary Merton Jump Diffusion for Time Series Prediction
- arxiv url: http://arxiv.org/abs/2506.04542v1
- Date: Thu, 05 Jun 2025 01:23:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.48015
- Title: Neural MJD: Neural Non-Stationary Merton Jump Diffusion for Time Series Prediction
- Title(参考訳): ニューラルMJD:時系列予測のためのニューラル非定常メルトンジャンプ拡散
- Authors: Yuanpei Gao, Qi Yan, Yan Leng, Renjie Liao,
- Abstract要約: 本稿ではニューラルネットワークに基づく非定常メルトン拡散(MJD)モデルであるNeural MJDを紹介する。
我々のモデルは、ポアソン方程式(SDE)シミュレーション問題として予測を明示的に定式化する。
トラクタブルラーニングを実現するため,小さな時間間隔でジャンプ回数を抑える機構を導入する。
- 参考スコア(独自算出の注目度): 13.819057582932214
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While deep learning methods have achieved strong performance in time series prediction, their black-box nature and inability to explicitly model underlying stochastic processes often limit their generalization to non-stationary data, especially in the presence of abrupt changes. In this work, we introduce Neural MJD, a neural network based non-stationary Merton jump diffusion (MJD) model. Our model explicitly formulates forecasting as a stochastic differential equation (SDE) simulation problem, combining a time-inhomogeneous It\^o diffusion to capture non-stationary stochastic dynamics with a time-inhomogeneous compound Poisson process to model abrupt jumps. To enable tractable learning, we introduce a likelihood truncation mechanism that caps the number of jumps within small time intervals and provide a theoretical error bound for this approximation. Additionally, we propose an Euler-Maruyama with restart solver, which achieves a provably lower error bound in estimating expected states and reduced variance compared to the standard solver. Experiments on both synthetic and real-world datasets demonstrate that Neural MJD consistently outperforms state-of-the-art deep learning and statistical learning methods.
- Abstract(参考訳): 深層学習法は時系列予測において高い性能を達成したが、そのブラックボックスの性質と、基礎となる確率過程を明示的にモデル化できないことは、特に急激な変化の存在下では、その一般化を非定常データに制限することが多い。
本稿では,ニューラルネットワークに基づく非定常メルトンジャンプ拡散(MJD)モデルであるNeural MJDを紹介する。
我々のモデルは確率微分方程式(SDE)シミュレーション問題として予測を明示的に定式化し、非定常確率力学を捉えるために時間不均一It^o拡散と時間不均一複合ポアソン過程を組み合わせ、急激なジャンプをモデル化する。
抽出可能な学習を実現するために,小さな時間間隔でジャンプ数を制限し,この近似に拘束される理論的誤差を与える可能性の緩和機構を導入する。
また,再起動型解法を用いたオイラー・丸山法を提案し,期待状態の推定と標準解法と比較して誤差の低減を実現している。
合成データセットと実世界のデータセットの両方の実験では、Neural MJDは最先端のディープラーニングと統計学習の手法を一貫して上回っている。
関連論文リスト
- Generative Latent Neural PDE Solver using Flow Matching [8.397730500554047]
低次元の潜伏空間にPDE状態を埋め込んだPDEシミュレーションのための潜伏拡散モデルを提案する。
我々のフレームワークは、オートエンコーダを使用して、異なるタイプのメッシュを統一された構造化潜在グリッドにマッピングし、複雑なジオメトリをキャプチャします。
数値実験により,提案モデルは,精度と長期安定性の両方において,決定論的ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2025-03-28T16:44:28Z) - Improving the Noise Estimation of Latent Neural Stochastic Differential Equations [4.64982780843177]
SDE(Latent Neural differential equations)は、最近時系列データから生成モデルを学習するための有望なアプローチとして登場した。
本稿では, この過小評価を詳細に検討し, 損失関数に付加的な雑音正規化を加えることで, 簡単な解法を提案する。
我々はデータの拡散成分を正確に捉えるモデルを学ぶことができる。
論文 参考訳(メタデータ) (2024-12-23T11:56:35Z) - One More Step: A Versatile Plug-and-Play Module for Rectifying Diffusion
Schedule Flaws and Enhancing Low-Frequency Controls [77.42510898755037]
One More Step (OMS) は、推論中に単純だが効果的なステップを付加したコンパクトネットワークである。
OMSは画像の忠実度を高め、トレーニングと推論の二分法を調和させ、元のモデルパラメータを保存する。
トレーニングが完了すると、同じ潜在ドメインを持つ様々な事前訓練された拡散モデルが同じOMSモジュールを共有することができる。
論文 参考訳(メタデータ) (2023-11-27T12:02:42Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Generalized Neural Closure Models with Interpretability [28.269731698116257]
我々は、統合された神経部分遅延微分方程式の新規で汎用的な方法論を開発した。
マルコフ型および非マルコフ型ニューラルネットワーク(NN)の閉包パラメータ化を用いて, 偏微分方程式(PDE)における既存/低忠実度力学モデルを直接拡張する。
本研究では, 非線形波動, 衝撃波, 海洋酸性化モデルに基づく4つの実験セットを用いて, 新しい一般化ニューラルクロージャモデル(gnCMs)の枠組みを実証する。
論文 参考訳(メタデータ) (2023-01-15T21:57:43Z) - Score-based Continuous-time Discrete Diffusion Models [102.65769839899315]
連続時間マルコフ連鎖を介して逆過程が認知されるマルコフジャンププロセスを導入することにより、拡散モデルを離散変数に拡張する。
条件境界分布の単純なマッチングにより、偏りのない推定器が得られることを示す。
提案手法の有効性を,合成および実世界の音楽と画像のベンチマークで示す。
論文 参考訳(メタデータ) (2022-11-30T05:33:29Z) - Stabilizing Machine Learning Prediction of Dynamics: Noise and
Noise-inspired Regularization [58.720142291102135]
近年、機械学習(ML)モデルはカオス力学系の力学を正確に予測するために訓練可能であることが示されている。
緩和技術がなければ、この技術は人工的に迅速にエラーを発生させ、不正確な予測と/または気候不安定をもたらす可能性がある。
トレーニング中にモデル入力に付加される多数の独立雑音実効化の効果を決定論的に近似する正規化手法であるLinearized Multi-Noise Training (LMNT)を導入する。
論文 参考訳(メタデータ) (2022-11-09T23:40:52Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z) - Neural Jump Ordinary Differential Equations: Consistent Continuous-Time
Prediction and Filtering [6.445605125467574]
我々は、連続的に学習するデータ駆動型アプローチを提供するNeural Jump ODE(NJ-ODE)を紹介する。
我々のモデルは、$L2$-Optimalオンライン予測に収束することを示す。
我々は,より複雑な学習タスクにおいて,モデルがベースラインより優れていることを示す。
論文 参考訳(メタデータ) (2020-06-08T16:34:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。