論文の概要: Improving the Noise Estimation of Latent Neural Stochastic Differential Equations
- arxiv url: http://arxiv.org/abs/2412.17499v1
- Date: Mon, 23 Dec 2024 11:56:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 16:00:43.545887
- Title: Improving the Noise Estimation of Latent Neural Stochastic Differential Equations
- Title(参考訳): 潜在ニューラル確率微分方程式の雑音推定の改善
- Authors: Linus Heck, Maximilian Gelbrecht, Michael T. Schaub, Niklas Boers,
- Abstract要約: SDE(Latent Neural differential equations)は、最近時系列データから生成モデルを学習するための有望なアプローチとして登場した。
本稿では, この過小評価を詳細に検討し, 損失関数に付加的な雑音正規化を加えることで, 簡単な解法を提案する。
我々はデータの拡散成分を正確に捉えるモデルを学ぶことができる。
- 参考スコア(独自算出の注目度): 4.64982780843177
- License:
- Abstract: Latent neural stochastic differential equations (SDEs) have recently emerged as a promising approach for learning generative models from stochastic time series data. However, they systematically underestimate the noise level inherent in such data, limiting their ability to capture stochastic dynamics accurately. We investigate this underestimation in detail and propose a straightforward solution: by including an explicit additional noise regularization in the loss function, we are able to learn a model that accurately captures the diffusion component of the data. We demonstrate our results on a conceptual model system that highlights the improved latent neural SDE's capability to model stochastic bistable dynamics.
- Abstract(参考訳): SDE(Latent Neural Stochastic differential equation)は、最近、確率時系列データから生成モデルを学習するための有望なアプローチとして登場した。
しかし、これらのデータに固有のノイズレベルを体系的に過小評価し、確率力学を正確に捉える能力を制限する。
我々はこの過小評価を詳細に検討し、損失関数に明示的な付加雑音正規化を含めることで、データの拡散成分を正確にキャプチャするモデルを学ぶことができるという簡単な解を提案する。
本稿では,確率的ビスタブルダイナミクスをモデル化する潜在神経SDEの能力の向上を強調した概念モデルシステムについて述べる。
関連論文リスト
- Probabilistic Decomposed Linear Dynamical Systems for Robust Discovery of Latent Neural Dynamics [5.841659874892801]
時間変化線形状態空間モデルは、ニューラルネットワークの数学的解釈可能な表現を得るための強力なツールである。
潜在変数推定のための既存の手法は、動的ノイズやシステムの非線形性に対して堅牢ではない。
本稿では,動的雑音に対するロバスト性を改善するために,分解モデルにおける潜在変数推定に対する確率的アプローチを提案する。
論文 参考訳(メタデータ) (2024-08-29T18:58:39Z) - HyperSINDy: Deep Generative Modeling of Nonlinear Stochastic Governing
Equations [5.279268784803583]
本稿では,データからのスパース制御方程式の深部生成モデルを用いた動的モデリングフレームワークHyperSINDyを紹介する。
一度訓練すると、HyperSINDyは、係数が白色雑音によって駆動される微分方程式を介して力学を生成する。
実験では、HyperSINDyはデータと一致するように学習度をスケーリングすることで、基底的真理支配方程式を復元する。
論文 参考訳(メタデータ) (2023-10-07T14:41:59Z) - A Geometric Perspective on Diffusion Models [57.27857591493788]
本稿では,人気のある分散拡散型SDEのODEに基づくサンプリングについて検討する。
我々は、最適なODEベースのサンプリングと古典的な平均シフト(モード探索)アルゴリズムの理論的関係を確立する。
論文 参考訳(メタデータ) (2023-05-31T15:33:16Z) - Reservoir Computing with Error Correction: Long-term Behaviors of
Stochastic Dynamical Systems [5.815325960286111]
本稿では,Reservoir Computingと正規化フローを組み合わせたデータ駆動型フレームワークを提案する。
提案手法の有効性をVan der Pal, El Nino-Southern Oscillation Simple model, Lorenz system などいくつかの実験で検証した。
論文 参考訳(メタデータ) (2023-05-01T05:50:17Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Learning and Inference in Sparse Coding Models with Langevin Dynamics [3.0600309122672726]
本稿では確率的潜在変数モデルで推論と学習が可能なシステムについて述べる。
ランゲヴィン力学を用いて潜伏変数を推論する連続時間方程式を導出することにより、スパース符号化モデルのこのアイデアを実証する。
ランゲヴィン力学は、L1ノルムが小さいのに対して、潜伏変数をゼロにすることを推奨する'L0スパース'系において、後続分布からサンプリングする効率的な手順をもたらすことを示す。
論文 参考訳(メタデータ) (2022-04-23T23:16:47Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Score-Based Generative Modeling through Stochastic Differential
Equations [114.39209003111723]
複素データ分布を雑音を注入することによって既知の事前分布に変換する微分方程式を提案する。
対応する逆時間SDEは、ノイズを緩やかに除去し、先行分布をデータ分布に戻す。
スコアベース生成モデリングの進歩を活用することで、これらのスコアをニューラルネットワークで正確に推定することができる。
スコアベース生成モデルから1024×1024画像の高忠実度生成を初めて示す。
論文 参考訳(メタデータ) (2020-11-26T19:39:10Z) - Learning Partially Known Stochastic Dynamics with Empirical PAC Bayes [12.44342023476206]
本稿では,これらのモデルの予測精度を3段階で向上させる手法を提案する。
実験では、このレシピは、部分的およびノイズの多い事前知識を改良されたモデル適合に効果的に翻訳することを示した。
論文 参考訳(メタデータ) (2020-06-17T14:47:06Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z) - Stochasticity in Neural ODEs: An Empirical Study [68.8204255655161]
ニューラルネットワークの正規化(ドロップアウトなど)は、より高度な一般化を可能にするディープラーニングの広範な技術である。
トレーニング中のデータ拡張は、同じモデルの決定論的およびバージョンの両方のパフォーマンスを向上させることを示す。
しかし、データ拡張によって得られる改善により、経験的正規化の利得は完全に排除され、ニューラルODEとニューラルSDEの性能は無視される。
論文 参考訳(メタデータ) (2020-02-22T22:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。