論文の概要: A PINN Approach to Symbolic Differential Operator Discovery with Sparse
Data
- arxiv url: http://arxiv.org/abs/2212.04630v1
- Date: Fri, 9 Dec 2022 02:09:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 15:37:40.590091
- Title: A PINN Approach to Symbolic Differential Operator Discovery with Sparse
Data
- Title(参考訳): スパースデータを用いた記号微分演算子発見へのpinnアプローチ
- Authors: Lena Podina, Brydon Eastman, Mohammad Kohandel
- Abstract要約: 本研究では,実験データが少ない状況下で微分作用素の記号的発見を行う。
微分方程式における未知の隠れ項の表現を学習するニューラルネットワークを追加することで、PINNのアプローチを変更する。
このアルゴリズムは微分方程式に対する代理解と隠れた項のブラックボックス表現の両方を与える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Given ample experimental data from a system governed by differential
equations, it is possible to use deep learning techniques to construct the
underlying differential operators. In this work we perform symbolic discovery
of differential operators in a situation where there is sparse experimental
data. This small data regime in machine learning can be made tractable by
providing our algorithms with prior information about the underlying dynamics.
Physics Informed Neural Networks (PINNs) have been very successful in this
regime (reconstructing entire ODE solutions using only a single point or entire
PDE solutions with very few measurements of the initial condition). We modify
the PINN approach by adding a neural network that learns a representation of
unknown hidden terms in the differential equation. The algorithm yields both a
surrogate solution to the differential equation and a black-box representation
of the hidden terms. These hidden term neural networks can then be converted
into symbolic equations using symbolic regression techniques like AI Feynman.
In order to achieve convergence of these neural networks, we provide our
algorithms with (noisy) measurements of both the initial condition as well as
(synthetic) experimental data obtained at later times. We demonstrate strong
performance of this approach even when provided with very few measurements of
noisy data in both the ODE and PDE regime.
- Abstract(参考訳): 微分方程式が支配する系からの豊富な実験データを与えると、深層学習技術を用いて基礎となる微分作用素を構築することができる。
本研究では,実験データが少ない状況において微分作用素の記号的発見を行う。
機械学習におけるこの小さなデータ構造は、我々のアルゴリズムに基礎となるダイナミクスに関する事前情報を提供することで、抽出可能である。
物理学Informed Neural Networks (PINN) は、この体制において非常に成功している(初期状態の測定を非常に少ない単点または全PDEソリューションを用いて、ODEソリューション全体を再構築する)。
微分方程式における未知の隠れ項の表現を学習するニューラルネットワークを追加することで,pinnアプローチを修正した。
このアルゴリズムは微分方程式に対する代理解と隠れた項のブラックボックス表現の両方を与える。
これらの隠れた用語のニューラルネットワークは、ai feynmanのような記号回帰技術を使って記号方程式に変換することができる。
これらのニューラルネットワークの収束を達成するために、我々は、初期状態と、後から得られた(合成)実験データの両方の(ノイズ)測定をアルゴリズムに提供する。
ODEとPDEの双方でノイズデータの測定値が極めて少ない場合でも,このアプローチの強い性能を示す。
関連論文リスト
- Chebyshev Spectral Neural Networks for Solving Partial Differential Equations [0.0]
この研究は、フィードフォワードニューラルネットワークモデルとエラーバックプロパゲーション原理を用いて、損失関数の計算に自動微分(AD)を利用する。
楕円偏微分方程式を用いて,CSNNモデルの数値効率と精度について検討し,よく知られた物理インフォームドニューラルネットワーク(PINN)法と比較した。
論文 参考訳(メタデータ) (2024-06-06T05:31:45Z) - A backward differential deep learning-based algorithm for solving high-dimensional nonlinear backward stochastic differential equations [0.6040014326756179]
本稿では,高次元非線形逆微分方程式を解くための新しい逆微分深層学習アルゴリズムを提案する。
ディープニューラルネットワーク(DNN)モデルは、入力やラベルだけでなく、対応するラベルの差分に基づいて訓練される。
論文 参考訳(メタデータ) (2024-04-12T13:05:35Z) - PMNN:Physical Model-driven Neural Network for solving time-fractional
differential equations [17.66402435033991]
時間差分方程式を解くために, 革新的物理モデル駆動ニューラルネットワーク (PMNN) 法を提案する。
ディープニューラルネットワーク(DNN)と分数微分の近似を効果的に組み合わせる。
論文 参考訳(メタデータ) (2023-10-07T12:43:32Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Neural ODEs with Irregular and Noisy Data [8.349349605334316]
ノイズや不規則なサンプル測定を用いて微分方程式を学習する手法について議論する。
我々の方法論では、ディープニューラルネットワークとニューラル常微分方程式(ODE)アプローチの統合において、大きな革新が見られる。
ベクトル場を記述するモデルを学習するためのフレームワークは,雑音測定において非常に効果的である。
論文 参考訳(メタデータ) (2022-05-19T11:24:41Z) - Meta-Solver for Neural Ordinary Differential Equations [77.8918415523446]
本研究では,ソルバ空間の変動がニューラルODEの性能を向上する方法について検討する。
解法パラメータ化の正しい選択は, 敵の攻撃に対するロバスト性の観点から, 神経odesモデルに大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2021-03-15T17:26:34Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - System Identification Through Lipschitz Regularized Deep Neural Networks [0.4297070083645048]
ニューラルネットワークを使って、データから支配方程式を学習します。
我々は、観測されたタイムスタンプデータから直接、ODEs $dotx(t) = f(t, x(t))$の右辺を再構築する。
論文 参考訳(メタデータ) (2020-09-07T17:52:51Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - The data-driven physical-based equations discovery using evolutionary
approach [77.34726150561087]
与えられた観測データから数学的方程式を発見するアルゴリズムについて述べる。
このアルゴリズムは遺伝的プログラミングとスパース回帰を組み合わせたものである。
解析方程式の発見や偏微分方程式(PDE)の発見にも用いられる。
論文 参考訳(メタデータ) (2020-04-03T17:21:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。