論文の概要: DICE: Discrete inverse continuity equation for learning population dynamics
- arxiv url: http://arxiv.org/abs/2507.05107v1
- Date: Mon, 07 Jul 2025 15:25:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.477055
- Title: DICE: Discrete inverse continuity equation for learning population dynamics
- Title(参考訳): DICE:集団動態の学習における逆連続性方程式の離散化
- Authors: Tobias Blickhan, Jules Berman, Andrew Stuart, Benjamin Peherstorfer,
- Abstract要約: 与えられたサンプル集団から有限個の時間点でプロセスの進化を学習する生成的モデリング手法を導入する。
DICEは、人口動態を学習する他の方法が失敗する状況での訓練に安定している。
DICEは、時間に条件を定めなければならない方法よりも、桁違いのコストで代表サンプルを生成する。
- 参考スコア(独自算出の注目度): 1.0535324143528206
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We introduce the Discrete Inverse Continuity Equation (DICE) method, a generative modeling approach that learns the evolution of a stochastic process from given sample populations at a finite number of time points. Models learned with DICE capture the typically smooth and well-behaved population dynamics, rather than the dynamics of individual sample trajectories that can exhibit complex or even chaotic behavior. The DICE loss function is developed specifically to be invariant, even in discrete time, to spatially constant but time-varying spurious constants that can emerge during training; this invariance increases training stability and robustness. Generating a trajectory of sample populations with DICE is fast because samples evolve directly in the time interval over which the stochastic process is formulated, in contrast to approaches that condition on time and then require multiple sampling steps per time step. DICE is stable to train, in situations where other methods for learning population dynamics fail, and DICE generates representative samples with orders of magnitude lower costs than methods that have to condition on time. Numerical experiments on a wide range of problems from random waves, Vlasov-Poisson instabilities and high-dimensional chaos are included to justify these assertions.
- Abstract(参考訳): 有限個の時間点で与えられたサンプル群から確率過程の進化を学習する生成的モデリング手法である離散逆連続方程式(DICE)法を導入する。
DICEで学んだモデルは、複雑な、あるいはカオス的な振る舞いを示す個々の標本軌跡のダイナミクスよりも、概して滑らかで良好な人口動態を捉えている。
DICE損失関数は、離散時間においても、訓練中に現れる空間的に一定であるが時間的に変化する急激な定数に不変であるように特別に開発され、この不変性は訓練の安定性と堅牢性を高める。
DICEによる標本集団の軌道の生成は、確率過程が定式化される時間間隔で直接進化するため、時間とともにその状態に近づき、時間ステップごとに複数のサンプリングステップが必要になる。
DICEは、人口動態を学習する他の方法が失敗する状況において、訓練に安定しており、DICEは時間とともに条件を定めなければならない方法よりも、桁違いのコストで代表サンプルを生成する。
これらの主張を正当化するために、ランダム波、ヴラソフ・ポアソン不安定性、高次元カオスといった幅広い問題に関する数値実験を含む。
関連論文リスト
- Trajectory Generator Matching for Time Series [0.0]
軌道フローマッチングにインスパイアされたSDEとジャンププロセスの新しいジェネレータを見つける。
ジャンプカーネル密度をパラメータ化することで、基礎となるプロセスの不連続性を扱うことができる。
他のほとんどのアプローチとは異なり、不規則にサンプリングされた時系列を扱うことができる。
論文 参考訳(メタデータ) (2025-05-29T07:56:32Z) - Continuous Temporal Learning of Probability Distributions via Neural ODEs with Applications in Continuous Glucose Monitoring Data [0.0]
目標は、グルコースなどのバイオマーカーの分布が時間とともにどのように変化するか、そして糖尿病のような慢性疾患の進行をどのように反映するかを分析することである。
本稿では,連続時間プロセスの進化を捉えたガウス混合に基づく確率モデルを提案する。
提案手法は, 平均離散性 (MMD) と混合重みの時間的進化を規定するニューラル正規微分方程式 (Neural Ordinary Differential Equation (Neural ODE) を併用した分布の非パラメトリック推定法である。
論文 参考訳(メタデータ) (2025-05-13T15:57:06Z) - Dynamical Diffusion: Learning Temporal Dynamics with Diffusion Models [71.63194926457119]
動的拡散(DyDiff, Dynamical Diffusion)は, 時間的に意識された前と逆のプロセスを含む理論的に健全なフレームワークである。
科学的時間的予測、ビデオ予測、時系列予測に関する実験は、動的拡散が時間的予測タスクのパフォーマンスを一貫して改善することを示した。
論文 参考訳(メタデータ) (2025-03-02T16:10:32Z) - A Poisson-Gamma Dynamic Factor Model with Time-Varying Transition Dynamics [51.147876395589925]
非定常PGDSは、基礎となる遷移行列が時間とともに進化できるように提案されている。
後続シミュレーションを行うために, 完全共役かつ効率的なギブスサンプリング装置を開発した。
実験により,提案した非定常PGDSは,関連するモデルと比較して予測性能が向上することを示した。
論文 参考訳(メタデータ) (2024-02-26T04:39:01Z) - Fast Sampling via Discrete Non-Markov Diffusion Models with Predetermined Transition Time [49.598085130313514]
離散非マルコフ拡散モデル(DNDM)を提案する。
これにより、トレーニング不要なサンプリングアルゴリズムにより、関数評価の数を大幅に削減できる。
有限ステップサンプリングから無限ステップサンプリングへの移行について検討し、離散プロセスと連続プロセスのギャップを埋めるための新たな洞察を提供する。
論文 参考訳(メタデータ) (2023-12-14T18:14:11Z) - Generative Time Series Forecasting with Diffusion, Denoise, and
Disentanglement [51.55157852647306]
時系列予測は多くのアプリケーションにおいて非常に重要な課題である。
実世界の時系列データが短時間に記録されることが一般的であり、これはディープモデルと限られたノイズのある時系列との間に大きなギャップをもたらす。
本稿では,生成モデルを用いた時系列予測問題に対処し,拡散,雑音,ゆがみを備えた双方向変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2023-01-08T12:20:46Z) - Applying Regularized Schr\"odinger-Bridge-Based Stochastic Process in
Generative Modeling [0.0]
本研究は,時間ステップ数とトレーニング時間を削減し,双方向プロセスと時間ステップ数との整合性を確保するための正規化条件を提案する。
この正規化を様々なタスクに適用することにより、より高速なサンプリング速度のプロセスに基づく生成モデリングの可能性を確認することができる。
論文 参考訳(メタデータ) (2022-08-15T11:52:33Z) - Continuous-Time Modeling of Counterfactual Outcomes Using Neural
Controlled Differential Equations [84.42837346400151]
反現実的な結果を予測することは、パーソナライズされたヘルスケアをアンロックする可能性がある。
既存の因果推論アプローチでは、観察と治療決定の間の通常の離散時間間隔が考慮されている。
そこで本研究では,腫瘍増殖モデルに基づく制御可能なシミュレーション環境を提案する。
論文 参考訳(メタデータ) (2022-06-16T17:15:15Z) - Training Generative Adversarial Networks by Solving Ordinary
Differential Equations [54.23691425062034]
GANトレーニングによって引き起こされる連続時間ダイナミクスについて検討する。
この観点から、GANのトレーニングにおける不安定性は積分誤差から生じると仮定する。
本研究では,有名なODEソルバ(Runge-Kutta など)がトレーニングを安定化できるかどうかを実験的に検証する。
論文 参考訳(メタデータ) (2020-10-28T15:23:49Z) - Learning Continuous-Time Dynamics by Stochastic Differential Networks [32.63114111531396]
変動微分ネットワーク(VSDN)という,フレキシブルな連続時間リカレントニューラルネットワークを提案する。
VSDNは神経微分方程式(SDE)による散発時間系列の複雑なダイナミクスを埋め込む
VSDNは最先端の継続的ディープラーニングモデルより優れており、散発時系列の予測やタスクにおいて優れた性能を発揮する。
論文 参考訳(メタデータ) (2020-06-11T01:40:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。