論文の概要: Diffusion models as probabilistic neural operators for recovering unobserved states of dynamical systems
- arxiv url: http://arxiv.org/abs/2405.07097v1
- Date: Sat, 11 May 2024 21:23:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-14 18:18:14.160040
- Title: Diffusion models as probabilistic neural operators for recovering unobserved states of dynamical systems
- Title(参考訳): 力学系の未観測状態回復のための確率的ニューラル演算子としての拡散モデル
- Authors: Katsiaryna Haitsiukevich, Onur Poyraz, Pekka Marttinen, Alexander Ilin,
- Abstract要約: 拡散に基づく生成モデルは、ニューラル演算子に好適な多くの特性を示す。
本稿では,複数のタスクに適応可能な単一モデルを,トレーニング中のタスク間で交互に学習することを提案する。
- 参考スコア(独自算出の注目度): 49.2319247825857
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper explores the efficacy of diffusion-based generative models as neural operators for partial differential equations (PDEs). Neural operators are neural networks that learn a mapping from the parameter space to the solution space of PDEs from data, and they can also solve the inverse problem of estimating the parameter from the solution. Diffusion models excel in many domains, but their potential as neural operators has not been thoroughly explored. In this work, we show that diffusion-based generative models exhibit many properties favourable for neural operators, and they can effectively generate the solution of a PDE conditionally on the parameter or recover the unobserved parts of the system. We propose to train a single model adaptable to multiple tasks, by alternating between the tasks during training. In our experiments with multiple realistic dynamical systems, diffusion models outperform other neural operators. Furthermore, we demonstrate how the probabilistic diffusion model can elegantly deal with systems which are only partially identifiable, by producing samples corresponding to the different possible solutions.
- Abstract(参考訳): 本稿では、偏微分方程式(PDE)に対するニューラル演算子としての拡散に基づく生成モデルの有効性について検討する。
ニューラルネットワークは、パラメータ空間からデータからPDEの解空間へのマッピングを学習するニューラルネットワークであり、また、パラメータを解から推定する逆問題も解決できる。
拡散モデルは多くの領域で優れているが、ニューラル演算子としてのポテンシャルは十分に調べられていない。
本研究では,拡散型生成モデルがニューラル演算子に好適な多くの特性を示し,パラメータに条件付きPDEの解を効果的に生成したり,システムの未観測部分を復元することができることを示す。
本稿では,複数のタスクに適応可能な単一モデルを,トレーニング中のタスク間で交互に学習することを提案する。
複数の現実的力学系を用いた実験では、拡散モデルは他のニューラル演算子よりも優れている。
さらに、確率拡散モデルが、部分的に識別可能なシステムに対して、異なる可能な解に対応するサンプルを生成することによって、エレガントに扱うことができることを示す。
関連論文リスト
- Probabilistic neural operators for functional uncertainty quantification [14.08907045605149]
本稿では,ニューラル演算子の出力関数空間上の確率分布を学習するフレームワークである確率論的ニューラル演算子(PNO)を紹介する。
PNOは、厳密な適切なスコアリングルールに基づく生成モデリングにより、ニューラル演算子を拡張し、不確実性情報をトレーニングプロセスに直接統合する。
論文 参考訳(メタデータ) (2025-02-18T14:42:11Z) - Generative Modeling of Neural Dynamics via Latent Stochastic Differential Equations [1.5467259918426441]
本稿では,生体神経系の計算モデル構築のためのフレームワークを提案する。
我々は、微分ドリフトと拡散関数を持つ結合微分方程式系を用いる。
これらのハイブリッドモデルは,刺激によって誘発される神経および行動応答の予測において,競争力を発揮することを示す。
論文 参考訳(メタデータ) (2024-12-01T09:36:03Z) - Diffeomorphic Latent Neural Operators for Data-Efficient Learning of Solutions to Partial Differential Equations [5.308435208832696]
計算された解演算子から偏微分方程式系(PDE)への近似は、科学や工学の様々な分野において必要である。
十分なデータのサンプル化を必要とせず,複数の領域にまたがって一般化可能なPDEソリューション演算子を学習するために,少数の真理解場に潜伏したニューラル演算子を訓練することができることを提案する。
論文 参考訳(メタデータ) (2024-11-27T03:16:00Z) - Latent Neural PDE Solver: a reduced-order modelling framework for partial differential equations [5.949599220326208]
より粗い離散化を伴う潜在空間における系の力学を学習することを提案する。
非線形オートエンコーダは、まずシステムの全順序表現をメッシュ再現空間に投影するように訓練される。
実時間空間で動作するニューラルPDEソルバと比較して, 精度と効率が優れていることを示す。
論文 参考訳(メタデータ) (2024-02-27T19:36:27Z) - Score-based Diffusion Models in Function Space [137.70916238028306]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
この研究は、関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)と呼ばれる数学的に厳密なフレームワークを導入する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Investigating Neuron Disturbing in Fusing Heterogeneous Neural Networks [6.389882065284252]
本稿では,異種局所モデルのニューロン同士が相互に干渉するニューロン乱れ現象を明らかにする。
本稿では,ニューラルネットワークの乱れを排除し,AMSと呼ばれる局所モデルを適応的に選択して予測を行う実験手法を提案する。
論文 参考訳(メタデータ) (2022-10-24T06:47:48Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Stochasticity in Neural ODEs: An Empirical Study [68.8204255655161]
ニューラルネットワークの正規化(ドロップアウトなど)は、より高度な一般化を可能にするディープラーニングの広範な技術である。
トレーニング中のデータ拡張は、同じモデルの決定論的およびバージョンの両方のパフォーマンスを向上させることを示す。
しかし、データ拡張によって得られる改善により、経験的正規化の利得は完全に排除され、ニューラルODEとニューラルSDEの性能は無視される。
論文 参考訳(メタデータ) (2020-02-22T22:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。