論文の概要: Neural ODEs with Irregular and Noisy Data
- arxiv url: http://arxiv.org/abs/2205.09479v1
- Date: Thu, 19 May 2022 11:24:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-21 01:30:18.049982
- Title: Neural ODEs with Irregular and Noisy Data
- Title(参考訳): 不規則なデータとノイズのあるニューラルode
- Authors: Pawan Goyal and Peter Benner
- Abstract要約: ノイズや不規則なサンプル測定を用いて微分方程式を学習する手法について議論する。
我々の方法論では、ディープニューラルネットワークとニューラル常微分方程式(ODE)アプローチの統合において、大きな革新が見られる。
ベクトル場を記述するモデルを学習するためのフレームワークは,雑音測定において非常に効果的である。
- 参考スコア(独自算出の注目度): 8.349349605334316
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Measurement noise is an integral part while collecting data of a physical
process. Thus, noise removal is necessary to draw conclusions from these data,
and it often becomes essential to construct dynamical models using these data.
We discuss a methodology to learn differential equation(s) using noisy and
irregular sampled measurements. In our methodology, the main innovation can be
seen in the integration of deep neural networks with the neural ordinary
differential equations (ODEs) approach. Precisely, we aim at learning a neural
network that provides (approximately) an implicit representation of the data
and an additional neural network that models the vector fields of the dependent
variables. We combine these two networks by constraining using neural ODEs. The
proposed framework to learn a model describing the vector field is highly
effective under noisy measurements. The approach can handle scenarios where
dependent variables are not available at the same temporal grid. Moreover, a
particular structure, e.g., second-order with respect to time, can easily be
incorporated. We demonstrate the effectiveness of the proposed method for
learning models using data obtained from various differential equations and
present a comparison with the neural ODE method that does not make any special
treatment to noise.
- Abstract(参考訳): 測定ノイズは、物理プロセスのデータを収集しながら、積分部分である。
したがって、これらのデータから結論を引き出すためにはノイズ除去が必要であり、これらのデータを用いて動的モデルを構築することがしばしば必要となる。
ノイズや不規則なサンプル測定を用いて微分方程式を学習する手法について議論する。
我々の方法論では、ディープニューラルネットワークとニューラル常微分方程式(ODE)アプローチの統合において、大きな革新が見られる。
正確には、データの暗黙的な表現を提供するニューラルネットワークと、依存変数のベクトル場をモデル化する追加のニューラルネットワークを学習することを目指している。
この2つのネットワークを結合して,ニューラルodeを制約する。
ベクトル場を記述するモデルを学ぶための提案手法は, 騒音測定において非常に効果的である。
このアプローチは、同じテンポラリグリッドで依存変数が利用できないシナリオを扱うことができる。
さらに、例えば時間に関する二階の特定の構造を容易に組み込むことができる。
様々な微分方程式から得られたデータを用いたモデル学習における提案手法の有効性を実証し,ノイズに対して特別な処理を行わないニューラルode法との比較を行った。
関連論文リスト
- Foundational Inference Models for Dynamical Systems [5.549794481031468]
我々は,ODEによって決定されると仮定される時系列データの欠落を補うという古典的な問題に対して,新たな視点を提供する。
本稿では,いくつかの(隠れた)ODEを満たすパラメトリック関数を通じて,ゼロショット時系列計算のための新しい教師付き学習フレームワークを提案する。
我々は,1と同一(事前学習)の認識モデルが,63個の異なる時系列に対してゼロショット計算を行なえることを実証的に実証した。
論文 参考訳(メタデータ) (2024-02-12T11:48:54Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - A PINN Approach to Symbolic Differential Operator Discovery with Sparse
Data [0.0]
本研究では,実験データが少ない状況下で微分作用素の記号的発見を行う。
微分方程式における未知の隠れ項の表現を学習するニューラルネットワークを追加することで、PINNのアプローチを変更する。
このアルゴリズムは微分方程式に対する代理解と隠れた項のブラックボックス表現の両方を与える。
論文 参考訳(メタデータ) (2022-12-09T02:09:37Z) - Learning differential equations from data [0.0]
近年,データ量の多さから,データから微分方程式モデルを学習するためのデータ駆動手法の探索が活発に行われている。
本稿では,複数の隠蔽層と異なるニューラルネットワーク幅を用いて,データからODEを学習することで,フォワード・オイラーに基づくニューラルネットワークモデルを提案し,その性能を検証した。
論文 参考訳(メタデータ) (2022-05-23T17:36:28Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Mixed Effects Neural ODE: A Variational Approximation for Analyzing the
Dynamics of Panel Data [50.23363975709122]
パネルデータ解析に(固定・ランダムな)混合効果を取り入れたME-NODEという確率モデルを提案する。
我々は、Wong-Zakai定理によって提供されるSDEの滑らかな近似を用いて、我々のモデルを導出できることを示す。
次に、ME-NODEのためのエビデンスに基づく下界を導出し、(効率的な)トレーニングアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-02-18T22:41:51Z) - Learning Dynamics from Noisy Measurements using Deep Learning with a
Runge-Kutta Constraint [9.36739413306697]
そこで本研究では,雑音と疎サンプルを用いた微分方程式の学習手法について論じる。
我々の方法論では、ディープニューラルネットワークと古典的な数値積分法の統合において、大きな革新が見られる。
論文 参考訳(メタデータ) (2021-09-23T15:43:45Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z) - Estimating Vector Fields from Noisy Time Series [6.939768185086753]
一次元神経形状関数のテンソル積からなるニューラルネットワークアーキテクチャについて述べる。
ニューラルネットワークの近似特性はニューラル形状関数アーキテクチャで維持されている。
また、我々のニューラル形状関数法と既存の微分方程式学習法を交互に最小化と複数軌跡に組み合わせて検討した。
論文 参考訳(メタデータ) (2020-12-06T07:27:56Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Stochasticity in Neural ODEs: An Empirical Study [68.8204255655161]
ニューラルネットワークの正規化(ドロップアウトなど)は、より高度な一般化を可能にするディープラーニングの広範な技術である。
トレーニング中のデータ拡張は、同じモデルの決定論的およびバージョンの両方のパフォーマンスを向上させることを示す。
しかし、データ拡張によって得られる改善により、経験的正規化の利得は完全に排除され、ニューラルODEとニューラルSDEの性能は無視される。
論文 参考訳(メタデータ) (2020-02-22T22:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。