論文の概要: Neural Jump ODEs as Generative Models
- arxiv url: http://arxiv.org/abs/2510.02757v1
- Date: Fri, 03 Oct 2025 06:43:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.286021
- Title: Neural Jump ODEs as Generative Models
- Title(参考訳): 生成モデルとしてのニューラルジャンプODE
- Authors: Robert A. Crowell, Florian Krach, Josef Teichmann,
- Abstract要約: 本稿では,ITOプロセスの生成モデルとしてニューラルジャンプODE(NJODE)をどのように利用できるかを検討する。
固定された伊藤過程のサンプル(離散的な観察)を考えると、NJODEフレームワークはプロセスのドリフトと拡散係数を近似するのに使うことができる。
- 参考スコア(独自算出の注目度): 2.528513413370073
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we explore how Neural Jump ODEs (NJODEs) can be used as generative models for It\^o processes. Given (discrete observations of) samples of a fixed underlying It\^o process, the NJODE framework can be used to approximate the drift and diffusion coefficients of the process. Under standard regularity assumptions on the It\^o processes, we prove that, in the limit, we recover the true parameters with our approximation. Hence, using these learned coefficients to sample from the corresponding It\^o process generates, in the limit, samples with the same law as the true underlying process. Compared to other generative machine learning models, our approach has the advantage that it does not need adversarial training and can be trained solely as a predictive model on the observed samples without the need to generate any samples during training to empirically approximate the distribution. Moreover, the NJODE framework naturally deals with irregularly sampled data with missing values as well as with path-dependent dynamics, allowing to apply this approach in real-world settings. In particular, in the case of path-dependent coefficients of the It\^o processes, the NJODE learns their optimal approximation given the past observations and therefore allows generating new paths conditionally on discrete, irregular, and incomplete past observations in an optimal way.
- Abstract(参考訳): 本研究では, ニューラルジャンプ ODE (NJODE) を It\^o プロセスの生成モデルとして利用する方法について検討する。
固定されたIt\^o過程のサンプル(離散的な観察)を与えられた場合、NJODEフレームワークはプロセスのドリフトと拡散係数を近似するために使用できる。
It\^o 過程の標準的な正則性仮定の下では、極限において、近似を用いて真のパラメータを復元することが証明される。
したがって、これらの学習された係数を用いて対応する It\^o 過程からサンプルを抽出し、その極限において、真の基底過程と同じ法則でサンプルを生成する。
他の生成機械学習モデルと比較すると,本手法は逆行訓練を必要とせず,実験中にサンプルを生成することなく,観測サンプルの予測モデルとしてのみ訓練することができるという利点がある。
さらに、NJODEフレームワークは、不規則にサンプリングされたデータと、パス依存のダイナミックスを自然に扱うことで、このアプローチを現実世界の設定に適用することができる。
特に、I\^o過程の経路依存係数の場合、NJODEは過去の観測から与えられた最適近似を学習し、したがって最適な方法で離散的、不規則で不完全な過去の観測に対して条件付きで新しい経路を生成することができる。
関連論文リスト
- Generation Properties of Stochastic Interpolation under Finite Training Set [28.505356058958125]
規則的な条件下では、決定論的生成過程はトレーニングサンプルを正確に回収し、生成過程は追加のノイズを伴うトレーニングサンプルとして現れる。
提案手法は,推定誤差が存在する場合,一様雑音とガウス雑音の混合によるトレーニングサンプルの凸結合を効果的に生成することを示した。
論文 参考訳(メタデータ) (2025-09-26T06:13:03Z) - Feynman-Kac Correctors in Diffusion: Annealing, Guidance, and Product of Experts [64.34482582690927]
事前学習したスコアベースモデルから得られた熱処理, 幾何平均, 製品分布の配列から, 効率的かつ原理的に抽出する方法を提供する。
本稿では,サンプリング品質を向上させるために,推論時間スケーリングを利用する逐次モンテカルロ(SMC)再サンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-03-04T17:46:51Z) - Flow map matching with stochastic interpolants: A mathematical framework for consistency models [15.520853806024943]
フローマップマッチングは、基礎となる生成モデルの2時間フローマップを学ぶための原則化されたフレームワークである。
FMMは,高速サンプリングのための既存手法の幅広いクラスを統一し,拡張することを示す。
論文 参考訳(メタデータ) (2024-06-11T17:41:26Z) - Conditional Pseudo-Reversible Normalizing Flow for Surrogate Modeling in Quantifying Uncertainty Propagation [11.874729463016227]
付加雑音によって汚染された物理モデルの代理モデルを構築するための条件付き擬似可逆正規化フローを導入する。
トレーニングプロセスは、ノイズと関数に関する事前知識を必要とせずに、入出力ペアからなるデータセットを利用する。
トレーニングされたモデルでは,高い確率領域をトレーニングセットでカバーした条件付き確率密度関数からサンプルを生成することができる。
論文 参考訳(メタデータ) (2024-03-31T00:09:58Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Variational Mixture of Normalizing Flows [0.0]
生成逆数ネットワークオートサイトGAN、変分オートエンコーダオートサイトベイペーパー、およびそれらの変種などの深い生成モデルは、複雑なデータ分布をモデル化するタスクに広く採用されている。
正規化フローはこの制限を克服し、確率密度関数にそのような公式の変更を利用する。
本研究は,混合モデルのコンポーネントとして正規化フローを用い,そのようなモデルのエンドツーエンドトレーニング手順を考案することによって,この問題を克服する。
論文 参考訳(メタデータ) (2020-09-01T17:20:08Z) - Towards Recurrent Autoregressive Flow Models [39.25035894474609]
本稿では,正規化フローを用いた一般的なプロセスモデリングのための手法として,リカレント自己回帰フローを提案する。
提案手法は, ニューラル接続を繰り返す正規化フローのパラメータを条件付けすることにより, 逐次的過程における各変数の条件分布を定義する。
モデルが3つの複雑なプロセスで訓練される一連の実験を通して、このモデルのクラスの有効性を実証する。
論文 参考訳(メタデータ) (2020-06-17T18:38:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。