論文の概要: Learning Recurrent Neural Net Models of Nonlinear Systems
- arxiv url: http://arxiv.org/abs/2011.09573v4
- Date: Tue, 16 Nov 2021 19:57:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 05:28:49.528417
- Title: Learning Recurrent Neural Net Models of Nonlinear Systems
- Title(参考訳): 非線形システムの繰り返しニューラルネットモデル学習
- Authors: Joshua Hanson, Maxim Raginsky, and Eduardo Sontag
- Abstract要約: 双曲型タンジェント活性化機能を持つ連続時間リカレントニューラルネットは,基礎となるi/oの挙動をほぼ再現し,信頼性が高い。
学習モデルの極北リスクを、ニューロン数、サンプルサイズ、一致する導関数数、入力の正則性、出力、未知のi/oマップの観点から定量的に保証する。
- 参考スコア(独自算出の注目度): 10.5811404306981
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the following learning problem: Given sample pairs of input and
output signals generated by an unknown nonlinear system (which is not assumed
to be causal or time-invariant), we wish to find a continuous-time recurrent
neural net with hyperbolic tangent activation function that approximately
reproduces the underlying i/o behavior with high confidence. Leveraging earlier
work concerned with matching output derivatives up to a given finite order, we
reformulate the learning problem in familiar system-theoretic language and
derive quantitative guarantees on the sup-norm risk of the learned model in
terms of the number of neurons, the sample size, the number of derivatives
being matched, and the regularity properties of the inputs, the outputs, and
the unknown i/o map.
- Abstract(参考訳): 未知の非線形システムによって生成される入力信号と出力信号のサンプル対(因果的あるいは時間不変ではないと考えられる)が与えられた場合、高信頼で基礎となる i/o の振る舞いをほぼ再現する双曲的タンジェント活性化機能を持つ連続時間リカレントニューラルネットを求める。
与えられた有限次までの出力導関数のマッチングに関する初期の研究を利用して、慣れ親しんだシステム理論言語で学習問題を再構成し、学習モデルのニューロン数、サンプルサイズ、適合する導関数の数、入力、出力、未知のi/oマップの正則性について、学習モデルの超ノルムリスクを定量的に保証する。
関連論文リスト
- Metric-Entropy Limits on Nonlinear Dynamical System Learning [4.069144210024563]
本稿では,リプシッツ特性を満足する非線形系を学習し,計量エントロピーの最適方法で過去の入力を十分に早く忘れることのできるリカレントニューラルネットワーク(RNN)について述べる。
私たちが考えるシーケンス・ツー・シーケンス・マップの集合は、ディープ・ニューラルネットワーク近似理論において一般的に考慮される関数クラスよりもはるかに大きいので、洗練された計量エントロピー特性が必要である。
論文 参考訳(メタデータ) (2024-07-01T12:57:03Z) - Learning Linearized Models from Nonlinear Systems with Finite Data [1.6026317505839445]
真の基礎となる力学が非線形であるとき、線形化モデルを同定する問題を考察する。
複数のトラジェクトリに基づく決定論的データ取得アルゴリズムを提供し、次に正規化最小二乗アルゴリズムを提案する。
我々の誤差境界は、非線形性による誤差とノイズによる誤差とのトレードオフを示し、任意に小さな誤差で線形化された力学を学習できることを示す。
論文 参考訳(メタデータ) (2023-09-15T22:58:03Z) - Learning Linear Causal Representations from Interventions under General
Nonlinear Mixing [52.66151568785088]
介入対象にアクセスできることなく、未知の単一ノード介入を考慮し、強い識別可能性を示す。
これは、ディープニューラルネットワークの埋め込みに対する非ペアの介入による因果識別性の最初の例である。
論文 参考訳(メタデータ) (2023-06-04T02:32:12Z) - MP-GELU Bayesian Neural Networks: Moment Propagation by GELU
Nonlinearity [0.0]
本稿では,BNNにおける第1モーメントと第2モーメントの高速な導出を可能にする,モーメント伝搬・ガウス誤差線形単位(MP-GELU)という非線形関数を提案する。
MP-GELUは、ReLUベースのBNNよりも高速な実行で予測精度が高く、不確実性の品質も向上する。
論文 参考訳(メタデータ) (2022-11-24T03:37:29Z) - Identifiability and Asymptotics in Learning Homogeneous Linear ODE Systems from Discrete Observations [114.17826109037048]
通常の微分方程式(ODE)は、機械学習において最近多くの注目を集めている。
理論的な側面、例えば、統計的推定の識別可能性と特性は、いまだに不明である。
本稿では,1つの軌道からサンプリングされた等間隔の誤差のない観測結果から,同次線形ODE系の同定可能性について十分な条件を導出する。
論文 参考訳(メタデータ) (2022-10-12T06:46:38Z) - Distributed Nonlinear State Estimation in Electric Power Systems using
Graph Neural Networks [1.1470070927586016]
本稿では,非線形電力系統SEの増乗係数グラフ上での独自のグラフニューラルネットワークに基づくSEの実装を提案する。
提案した回帰モデルは、一度訓練された推論時間中に線形計算複雑性を持ち、分散実装の可能性がある。
論文 参考訳(メタデータ) (2022-07-23T08:54:24Z) - Exploring Linear Feature Disentanglement For Neural Networks [63.20827189693117]
Sigmoid、ReLU、Tanhなどの非線形活性化関数は、ニューラルネットワーク(NN)において大きな成功を収めた。
サンプルの複雑な非線形特性のため、これらの活性化関数の目的は、元の特徴空間から線形分離可能な特徴空間へサンプルを投影することである。
この現象は、現在の典型的なNNにおいて、すべての特徴がすべての非線形関数によって変換される必要があるかどうかを探求することに興味をそそる。
論文 参考訳(メタデータ) (2022-03-22T13:09:17Z) - Recurrent Neural Network Training with Convex Loss and Regularization
Functions by Extended Kalman Filtering [0.20305676256390928]
本研究では,非線形システム同定ベンチマークにおいて,学習手法が勾配勾配よりも優れていることを示す。
また、データ駆動非線形モデル予測制御におけるアルゴリズムの利用と、オフセットフリートラッキングにおける外乱モデルとの関係についても検討する。
論文 参考訳(メタデータ) (2021-11-04T07:49:15Z) - Consistency of mechanistic causal discovery in continuous-time using
Neural ODEs [85.7910042199734]
ダイナミカルシステムの研究において,連続時間における因果的発見を検討する。
本稿では,ニューラルネットワークを用いた因果探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-06T08:48:02Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z) - Measuring Model Complexity of Neural Networks with Curve Activation
Functions [100.98319505253797]
本稿では,線形近似ニューラルネットワーク(LANN)を提案する。
ニューラルネットワークのトレーニングプロセスを実験的に検討し、オーバーフィッティングを検出する。
我々は、$L1$と$L2$正規化がモデルの複雑さの増加を抑制することを発見した。
論文 参考訳(メタデータ) (2020-06-16T07:38:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。