論文の概要: Neural Langevin Dynamics: towards interpretable Neural Stochastic
Differential Equations
- arxiv url: http://arxiv.org/abs/2211.09537v1
- Date: Thu, 17 Nov 2022 14:00:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 16:56:20.309682
- Title: Neural Langevin Dynamics: towards interpretable Neural Stochastic
Differential Equations
- Title(参考訳): ニューラルランゲヴィンダイナミクス : 解釈可能なニューラル確率微分方程式に向けて
- Authors: Simon M. Koop, Mark A. Peletier, Jacobus W. Portegies, Vlado Menkovski
- Abstract要約: NSDEは変分オートエンコーダまたはGANとして訓練することができる。
NSDEをランゲヴィン力学の形式に制限し、それをVAEとして訓練することで、より精巧な分析やより広範囲の可視化技術に役立てるNSDEを得る。
これにより、教師なしの方法でデータダイナミクスの基盤となる状態を検出するだけでなく、学習されたSDEに従って各状態に費やされた時間の分布を推測することが可能になる。
- 参考スコア(独自算出の注目度): 2.253868937270653
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Stochastic Differential Equations (NSDE) have been trained as both
Variational Autoencoders, and as GANs. However, the resulting Stochastic
Differential Equations can be hard to interpret or analyse due to the generic
nature of the drift and diffusion fields. By restricting our NSDE to be of the
form of Langevin dynamics, and training it as a VAE, we obtain NSDEs that lend
themselves to more elaborate analysis and to a wider range of visualisation
techniques than a generic NSDE. More specifically, we obtain an energy
landscape, the minima of which are in one-to-one correspondence with latent
states underlying the used data. This not only allows us to detect states
underlying the data dynamics in an unsupervised manner, but also to infer the
distribution of time spent in each state according to the learned SDE. More in
general, restricting an NSDE to Langevin dynamics enables the use of a large
set of tools from computational molecular dynamics for the analysis of the
obtained results.
- Abstract(参考訳): ニューラル確率微分方程式(NSDE)は変分オートエンコーダやGANとして訓練されている。
しかし、結果として生じる確率微分方程式は、ドリフトと拡散場の一般的な性質のために解釈や解析が難しい。
NSDEをランゲヴィン力学の形式に制限し、それをVAEとして訓練することにより、より精巧な分析や汎用的なNSDEよりも幅広い可視化技術に役立てるNSDEを得る。
より具体的には、使用済みデータの背後にある潜伏状態と1対1の対応を持つエネルギー景観を得る。
これにより、教師なしの方法でデータダイナミクスの基礎となる状態を検出できるだけでなく、学習したsdeに従って各ステートに費やされる時間の分布を推測できる。
より一般的には、NSDE をランゲヴィン力学に制限することで、計算分子動力学から得られた結果の分析に大量のツールを使うことができる。
関連論文リスト
- PhyMPGN: Physics-encoded Message Passing Graph Network for spatiotemporal PDE systems [31.006807854698376]
我々は物理符号化されたメッセージパッシンググラフネットワーク(PhyMPGN)という新しいグラフ学習手法を提案する。
我々は,GNNを数値積分器に組み込んで,与えられたPDEシステムに対する時間的時間的ダイナミクスの時間的行進を近似する。
PhyMPGNは、粗い非構造メッシュ上での様々なタイプの時間的ダイナミクスを正確に予測することができる。
論文 参考訳(メタデータ) (2024-10-02T08:54:18Z) - SEGNO: Generalizing Equivariant Graph Neural Networks with Physical
Inductive Biases [66.61789780666727]
等変性を維持しながら, 2階連続性をGNNに組み込む方法を示す。
また、SEGNOに関する理論的知見も提供し、隣接する状態間の一意の軌跡を学習できることを強調している。
我々のモデルは最先端のベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-08-25T07:15:58Z) - Graph Neural Stochastic Differential Equations [3.568455515949288]
グラフニューラル微分方程式(Graph Neural Differential Equations: Graph Neural SDEs)を提案する。
この手法は、ブラウン運動を用いたデータ表現にランダム性を埋め込むことにより、グラフニューラル正規微分方程式(Graph Neural Ordinary Differential Equations, Graph Neural ODEs)を強化する。
我々は、グラフ畳み込みネットワークやグラフニューラルODEといった従来のモデル、特に信頼性予測において、潜在グラフニューラルSDEが超越していることを発見した。
論文 参考訳(メタデータ) (2023-08-23T09:20:38Z) - Generalized Neural Closure Models with Interpretability [28.269731698116257]
我々は、統合された神経部分遅延微分方程式の新規で汎用的な方法論を開発した。
マルコフ型および非マルコフ型ニューラルネットワーク(NN)の閉包パラメータ化を用いて, 偏微分方程式(PDE)における既存/低忠実度力学モデルを直接拡張する。
本研究では, 非線形波動, 衝撃波, 海洋酸性化モデルに基づく4つの実験セットを用いて, 新しい一般化ニューラルクロージャモデル(gnCMs)の枠組みを実証する。
論文 参考訳(メタデータ) (2023-01-15T21:57:43Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - Convex Analysis of the Mean Field Langevin Dynamics [49.66486092259375]
平均場ランゲヴィン力学の収束速度解析について述べる。
ダイナミックスに付随する$p_q$により、凸最適化において古典的な結果と平行な収束理論を開発できる。
論文 参考訳(メタデータ) (2022-01-25T17:13:56Z) - Incorporating NODE with Pre-trained Neural Differential Operator for
Learning Dynamics [73.77459272878025]
ニューラル微分演算子(NDO)の事前学習による動的学習における教師付き信号の強化を提案する。
NDOは記号関数のクラスで事前訓練され、これらの関数の軌跡サンプルとそれらの導関数とのマッピングを学習する。
我々は,NDOの出力が,ライブラリの複雑さを適切に調整することで,基礎となる真理微分を適切に近似できることを理論的に保証する。
論文 参考訳(メタデータ) (2021-06-08T08:04:47Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z) - Neural SDEs as Infinite-Dimensional GANs [18.07683058213448]
我々は、SDE の適合に対する現在の古典的アプローチが、(ワッサーシュタイン) GAN の特別な場合としてアプローチされることを示した。
我々は(現代の機械学習における)連続時間生成時系列モデルとしてニューラルSDEを得る。
論文 参考訳(メタデータ) (2021-02-06T19:59:15Z) - Stochasticity in Neural ODEs: An Empirical Study [68.8204255655161]
ニューラルネットワークの正規化(ドロップアウトなど)は、より高度な一般化を可能にするディープラーニングの広範な技術である。
トレーニング中のデータ拡張は、同じモデルの決定論的およびバージョンの両方のパフォーマンスを向上させることを示す。
しかし、データ拡張によって得られる改善により、経験的正規化の利得は完全に排除され、ニューラルODEとニューラルSDEの性能は無視される。
論文 参考訳(メタデータ) (2020-02-22T22:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。