論文の概要: Neural SDEs as Infinite-Dimensional GANs
- arxiv url: http://arxiv.org/abs/2102.03657v1
- Date: Sat, 6 Feb 2021 19:59:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 15:36:49.619064
- Title: Neural SDEs as Infinite-Dimensional GANs
- Title(参考訳): 無限次元GANとしてのニューラルSDE
- Authors: Patrick Kidger and James Foster and Xuechen Li and Harald Oberhauser
and Terry Lyons
- Abstract要約: 我々は、SDE の適合に対する現在の古典的アプローチが、(ワッサーシュタイン) GAN の特別な場合としてアプローチされることを示した。
我々は(現代の機械学習における)連続時間生成時系列モデルとしてニューラルSDEを得る。
- 参考スコア(独自算出の注目度): 18.07683058213448
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stochastic differential equations (SDEs) are a staple of mathematical
modelling of temporal dynamics. However, a fundamental limitation has been that
such models have typically been relatively inflexible, which recent work
introducing Neural SDEs has sought to solve. Here, we show that the current
classical approach to fitting SDEs may be approached as a special case of
(Wasserstein) GANs, and in doing so the neural and classical regimes may be
brought together. The input noise is Brownian motion, the output samples are
time-evolving paths produced by a numerical solver, and by parameterising a
discriminator as a Neural Controlled Differential Equation (CDE), we obtain
Neural SDEs as (in modern machine learning parlance) continuous-time generative
time series models. Unlike previous work on this problem, this is a direct
extension of the classical approach without reference to either prespecified
statistics or density functions. Arbitrary drift and diffusions are admissible,
so as the Wasserstein loss has a unique global minima, in the infinite data
limit \textit{any} SDE may be learnt.
- Abstract(参考訳): 確率微分方程式 (SDEs) は時間力学の数学的モデリングの基礎である。
しかし、そのようなモデルは通常比較的柔軟であり、ニューラルSDEを導入した最近の研究は解決を試みている。
ここでは、SDE の適合に対する現在の古典的アプローチが(ワッサーシュタイン) GAN の特別な場合としてアプローチされる可能性を示し、その場合、ニューラルネットワークと古典的体制をまとめることができる。
入力ノイズはブラウン運動であり、出力サンプルは数値解法によって生成される時間進化経路であり、識別器をニューラル制御微分方程式(CDE)としてパラメータ化することにより、(現代の機械学習における)連続時間生成時系列モデルとしてニューラルSDEを得る。
この問題に関する以前の研究とは異なり、これは前述した統計や密度関数に言及せずに古典的アプローチの直接的な拡張である。
任意漂流と拡散は許容可能であるので、ワッサーシュタインの損失は固有のグローバルミニマを持ち、無限データ極限 \textit{any} SDE で学習することができる。
関連論文リスト
- Gaussian Mixture Solvers for Diffusion Models [84.83349474361204]
本稿では,拡散モデルのためのGMSと呼ばれる,SDEに基づく新しい解法について紹介する。
画像生成およびストロークベース合成におけるサンプル品質の観点から,SDEに基づく多くの解法よりも優れる。
論文 参考訳(メタデータ) (2023-11-02T02:05:38Z) - GNRK: Graph Neural Runge-Kutta method for solving partial differential
equations [0.0]
本研究はグラフニューラルランゲ・クッタ(GNRK)と呼ばれる新しいアプローチを紹介する。
GNRKはグラフニューラルネットワークモジュールを古典的解法にインスパイアされた再帰構造に統合する。
これは、初期条件やPDE係数に関係なく、一般的なPDEに対処する能力を示す。
論文 参考訳(メタデータ) (2023-10-01T08:52:46Z) - Latent SDEs on Homogeneous Spaces [9.361372513858043]
偏微分方程式(SDE)の解によって観測された幾何学的過程が支配される潜在変数モデルにおける変分ベイズ推論の問題を考察する。
実験により,提案型の潜伏SDEを既存の一段階のオイラー・丸山スキームを用いて効率的に学習できることが示されている。
論文 参考訳(メタデータ) (2023-06-28T14:18:52Z) - Neural State-Dependent Delay Differential Equations [0.0]
不連続性や遅延項は、物理学から医学まで、幅広い種類の問題の統治方程式で発生する。
我々は最近提案されたNeural State-Dependent DDE (SDDDE)を導入して、ニューラルDDEを再考する。
提案手法は競争力があり,様々な遅延力学系における他の連続クラスモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-26T09:35:56Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - Neural Laplace: Learning diverse classes of differential equations in
the Laplace domain [86.52703093858631]
本稿では,これらすべてを含む多種多様な微分方程式(DE)を学習するための統一的な枠組みを提案する。
時間領域の力学をモデル化する代わりに、ラプラス領域でモデル化する。
The experiment, Neural Laplace shows excellent performance in modelling and extrapolating the trajectories of various class of DEs。
論文 参考訳(メタデータ) (2022-06-10T02:14:59Z) - Neural Operator with Regularity Structure for Modeling Dynamics Driven
by SPDEs [70.51212431290611]
偏微分方程式 (SPDE) は、大気科学や物理学を含む多くの分野において、力学をモデル化するための重要なツールである。
本研究では,SPDEによって駆動されるダイナミクスをモデル化するための特徴ベクトルを組み込んだニューラル演算子(NORS)を提案する。
動的Phi41モデルと2d Navier-Stokes方程式を含む様々なSPDE実験を行った。
論文 参考訳(メタデータ) (2022-04-13T08:53:41Z) - NeuralPDE: Modelling Dynamical Systems from Data [0.44259821861543996]
本稿では、畳み込みニューラルネットワーク(CNN)と微分可能なODEソルバを組み合わせて動的システムをモデル化するモデルであるNeuralPDEを提案する。
標準PDEソルバで使用されるラインの手法は、CNNが任意のPDEダイナミクスをパラメトリズする自然な選択となる畳み込みを用いて表現できることを示す。
我々のモデルは、PDEの管理に関する事前の知識を必要とせずに、あらゆるデータに適用することができる。
論文 参考訳(メタデータ) (2021-11-15T10:59:52Z) - Neural Stochastic Partial Differential Equations [1.2183405753834562]
物理に着想を得たニューラルアーキテクチャの2つの重要なクラスの拡張を提供するニューラルSPDEモデルを導入する。
一方、一般的な神経-通常、制御され、粗い-微分方程式モデルをすべて拡張し、入ってくる情報を処理することができる。
一方、関数空間間のマッピングをモデル化するニューラルネットワークの最近の一般化であるNeural Operatorsを拡張して、複雑なSPDEソリューション演算子を学習することができる。
論文 参考訳(メタデータ) (2021-10-19T20:35:37Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z) - Time Dependence in Non-Autonomous Neural ODEs [74.78386661760662]
時変重みを持つニューラルODEの新しいファミリーを提案する。
我々は、速度と表現能力の両面で、従来のニューラルODEの変形よりも優れていた。
論文 参考訳(メタデータ) (2020-05-05T01:41:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。