論文の概要: Unconstrained Parametrization of Dissipative and Contracting Neural
Ordinary Differential Equations
- arxiv url: http://arxiv.org/abs/2304.02976v2
- Date: Fri, 15 Sep 2023 15:28:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 18:37:29.993898
- Title: Unconstrained Parametrization of Dissipative and Contracting Neural
Ordinary Differential Equations
- Title(参考訳): 散逸・縮退型ニューラルディファレンシャル方程式の非拘束パラメトリゼーション
- Authors: Daniele Martinelli, Clara Luc\'ia Galimberti, Ian R. Manchester, Luca
Furieri, and Giancarlo Ferrari-Trecate
- Abstract要約: 本稿では,Deep Neural Networks (DNN) のクラスを連続的に導入し,研究する。
私たちは、提案されているNodeRENを、堅牢な学習と制御にとって重要な特性である、収縮性と分散性で支援する方法を示します。
- 参考スコア(独自算出の注目度): 0.9437165725355698
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we introduce and study a class of Deep Neural Networks (DNNs)
in continuous-time. The proposed architecture stems from the combination of
Neural Ordinary Differential Equations (Neural ODEs) with the model structure
of recently introduced Recurrent Equilibrium Networks (RENs). We show how to
endow our proposed NodeRENs with contractivity and dissipativity -- crucial
properties for robust learning and control. Most importantly, as for RENs, we
derive parametrizations of contractive and dissipative NodeRENs which are
unconstrained, hence enabling their learning for a large number of parameters.
We validate the properties of NodeRENs, including the possibility of handling
irregularly sampled data, in a case study in nonlinear system identification.
- Abstract(参考訳): 本研究では,Deep Neural Networks(DNN)のクラスを連続的に導入し,研究する。
提案アーキテクチャは,最近導入されたRecurrent Equilibrium Networks (RENs) のモデル構造とニューラル正規微分方程式(Neural ODEs)の組み合わせに由来する。
私たちは、提案されているNodeRENを、堅牢な学習と制御にとって重要な特性である、収縮性と分散性で支援する方法を示します。
最も重要なことは、RENに関して、制約のない、収縮的かつ散逸的なNodeRENのパラメトリゼーションを導き、それによって、多くのパラメータを学習できるということです。
非線形システム同定におけるケーススタディにおいて、不規則サンプルデータを扱う可能性を含むNodeRENの特性を検証する。
関連論文リスト
- Neural Parameter Regression for Explicit Representations of PDE Solution Operators [22.355460388065964]
偏微分方程式(PDE)の解演算子を学習するための新しいフレームワークであるニューラル回帰(NPR)を導入する。
NPRは、ニューラルネットワーク(NN)パラメータを回帰するために、Physics-Informed Neural Network (PINN, Raissi et al., 2021) 技術を使用している。
このフレームワークは、新しい初期条件と境界条件に顕著な適応性を示し、高速な微調整と推論を可能にした。
論文 参考訳(メタデータ) (2024-03-19T14:30:56Z) - Regularizing with Pseudo-Negatives for Continual Self-Supervised Learning [62.40718385934608]
効果的な継続型自己教師型学習(CSSL)のためのPNR(Pseudo-Negative Regularization)フレームワークを提案する。
我々のPNRは,新たに学習した表現が過去の学習と矛盾しないように,モデルに基づく拡張によって得られた擬陰性情報を活用する。
論文 参考訳(メタデータ) (2023-06-08T10:59:35Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Neural Delay Differential Equations: System Reconstruction and Image
Classification [14.59919398960571]
我々はニューラル遅延微分方程式 (Neural Delay Differential Equations, NDDEs) という,遅延を伴う連続深度ニューラルネットワークの新しいクラスを提案する。
NODE と比較して、NDDE はより強い非線形表現能力を持つ。
我々は、合成されたデータだけでなく、よく知られた画像データセットであるCIFAR10に対しても、損失の低減と精度の向上を実現している。
論文 参考訳(メタデータ) (2023-04-11T16:09:28Z) - Learning Discretized Neural Networks under Ricci Flow [51.36292559262042]
低精度重みとアクティベーションからなる離散ニューラルネットワーク(DNN)について検討する。
DNNは、訓練中に微分不可能な離散関数のために無限あるいはゼロの勾配に悩まされる。
論文 参考訳(メタデータ) (2023-02-07T10:51:53Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Neural Ordinary Differential Equations for Nonlinear System
Identification [0.9864260997723973]
本研究では,NODEの性能をニューラル状態空間モデルと古典線形システム同定法と比較する。
実験の結果,NODEはベンチマーク手法に比べて精度を桁違いに向上できることがわかった。
論文 参考訳(メタデータ) (2022-02-28T22:25:53Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。