論文の概要: System Identification Through Lipschitz Regularized Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2009.03288v1
- Date: Mon, 7 Sep 2020 17:52:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 02:57:24.069491
- Title: System Identification Through Lipschitz Regularized Deep Neural Networks
- Title(参考訳): リプシッツ正規化ディープニューラルネットワークによるシステム同定
- Authors: Elisa Negrini, Giovanna Citti, Luca Capogna
- Abstract要約: ニューラルネットワークを使って、データから支配方程式を学習します。
我々は、観測されたタイムスタンプデータから直接、ODEs $dotx(t) = f(t, x(t))$の右辺を再構築する。
- 参考スコア(独自算出の注目度): 0.4297070083645048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we use neural networks to learn governing equations from data.
Specifically we reconstruct the right-hand side of a system of ODEs $\dot{x}(t)
= f(t, x(t))$ directly from observed uniformly time-sampled data using a neural
network. In contrast with other neural network based approaches to this
problem, we add a Lipschitz regularization term to our loss function. In the
synthetic examples we observed empirically that this regularization results in
a smoother approximating function and better generalization properties when
compared with non-regularized models, both on trajectory and non-trajectory
data, especially in presence of noise. In contrast with sparse regression
approaches, since neural networks are universal approximators, we don't need
any prior knowledge on the ODE system. Since the model is applied component
wise, it can handle systems of any dimension, making it usable for real-world
data.
- Abstract(参考訳): 本稿では,ニューラルネットワークを用いてデータから方程式を学習する。
具体的には、ニューラルネットワークを用いて観測された一様時間サンプリングデータから直接、odes $\dot{x}(t) = f(t, x(t))$の右辺を再構築する。
この問題に対する他のニューラルネットワークベースのアプローチとは対照的に、損失関数にリプシッツ正規化項を追加する。
合成例では, この正則化が, 軌道データ, 非軌道データ, 特にノイズの存在下での非正則化モデルと比較して, より滑らかな近似関数とより優れた一般化特性をもたらすことを実証的に観察した。
スパース回帰アプローチとは対照的に、ニューラルネットワークは普遍近似器であるため、ODEシステムに関する事前の知識は必要ない。
モデルはコンポーネント的に応用されるので、どんな次元のシステムでも扱えるので、現実世界のデータにも使える。
関連論文リスト
- Approximation with Random Shallow ReLU Networks with Applications to Model Reference Adaptive Control [0.0]
ランダムに生成される重みとバイアスを持つReLUネットワークは、高い確率で$O(m-1/2)$の誤りを生じることを示す。
本稿では,モデル参照適応制御アプリケーションにおいて,必要な精度を近似するために,その結果をどのように利用できるかを示す。
論文 参考訳(メタデータ) (2024-03-25T19:39:17Z) - A Scalable Walsh-Hadamard Regularizer to Overcome the Low-degree
Spectral Bias of Neural Networks [79.28094304325116]
任意の関数を学習するニューラルネットワークの能力にもかかわらず、勾配降下によって訓練されたモデルは、しばしばより単純な関数に対するバイアスを示す。
我々は、この低度周波数に対するスペクトルバイアスが、現実のデータセットにおけるニューラルネットワークの一般化を実際にいかに損なうかを示す。
本稿では,ニューラルネットワークによる高次周波数学習を支援する,スケーラブルな機能正規化手法を提案する。
論文 参考訳(メタデータ) (2023-05-16T20:06:01Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - A PINN Approach to Symbolic Differential Operator Discovery with Sparse
Data [0.0]
本研究では,実験データが少ない状況下で微分作用素の記号的発見を行う。
微分方程式における未知の隠れ項の表現を学習するニューラルネットワークを追加することで、PINNのアプローチを変更する。
このアルゴリズムは微分方程式に対する代理解と隠れた項のブラックボックス表現の両方を与える。
論文 参考訳(メタデータ) (2022-12-09T02:09:37Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - Overparameterized ReLU Neural Networks Learn the Simplest Models: Neural
Isometry and Exact Recovery [33.74925020397343]
ディープラーニングは、学習パラメータが極端に多い場合でも、ニューラルネットワークが驚くほどよく一般化されていることを示している。
標準重崩壊正則化をもつ2層ReLUネットワークのトレーニングと一般化特性について考察する。
我々は,ラベルがうるさい場合でも,ReLUネットワークは単純でスパースなモデルを学ぶことを示す。
論文 参考訳(メタデータ) (2022-09-30T06:47:15Z) - On the balance between the training time and interpretability of neural
ODE for time series modelling [77.34726150561087]
本稿は,現代のニューラルODEを,時系列モデリングアプリケーションのためのより単純なモデルに還元することはできないことを示す。
ニューラルODEの複雑さは、従来の時系列モデリングツールと比較されるか、超える。
本稿では,ニューラルネットワークとODEシステムを用いた時系列モデリングの新しい視点を提案する。
論文 参考訳(メタデータ) (2022-06-07T13:49:40Z) - Neural ODEs with Irregular and Noisy Data [8.349349605334316]
ノイズや不規則なサンプル測定を用いて微分方程式を学習する手法について議論する。
我々の方法論では、ディープニューラルネットワークとニューラル常微分方程式(ODE)アプローチの統合において、大きな革新が見られる。
ベクトル場を記述するモデルを学習するためのフレームワークは,雑音測定において非常に効果的である。
論文 参考訳(メタデータ) (2022-05-19T11:24:41Z) - A Neural Network Ensemble Approach to System Identification [0.6445605125467573]
軌道データから未知の制御方程式を学習するための新しいアルゴリズムを提案する。
ニューラルネットワークのアンサンブルを用いて関数の$f$を近似する。
論文 参考訳(メタデータ) (2021-10-15T21:45:48Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。