論文の概要: Improved Initialization of State-Space Artificial Neural Networks
- arxiv url: http://arxiv.org/abs/2103.14516v1
- Date: Fri, 26 Mar 2021 15:16:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 12:27:29.894903
- Title: Improved Initialization of State-Space Artificial Neural Networks
- Title(参考訳): 状態空間型ニューラルネットワークの初期化改善
- Authors: Maarten Schoukens
- Abstract要約: ブラックボックスの非線形状態空間モデルの同定は、状態方程式と出力方程式の柔軟な表現を必要とする。
本稿では,リカレントニューラルネットワークとして表現される非線形状態空間モデルに対する改良手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The identification of black-box nonlinear state-space models requires a
flexible representation of the state and output equation. Artificial neural
networks have proven to provide such a representation. However, as in many
identification problems, a nonlinear optimization problem needs to be solved to
obtain the model parameters (layer weights and biases). A well-thought
initialization of these model parameters can often avoid that the nonlinear
optimization algorithm converges to a poorly performing local minimum of the
considered cost function. This paper introduces an improved initialization
approach for nonlinear state-space models represented as a recurrent artificial
neural network and emphasizes the importance of including an explicit linear
term in the model structure. Some of the neural network weights are initialized
starting from a linear approximation of the nonlinear system, while others are
initialized using random values or zeros. The effectiveness of the proposed
initialization approach over previously proposed methods is illustrated on two
benchmark examples.
- Abstract(参考訳): ブラックボックスの非線形状態空間モデルの同定には、状態方程式と出力方程式の柔軟な表現が必要である。
人工ニューラルネットワークはそのような表現を提供することが証明されている。
しかし、多くの識別問題と同様に、モデルパラメータ(層重みとバイアス)を得るために非線形最適化問題を解く必要がある。
これらのモデルパラメータのよく考えられた初期化は、しばしば非線形最適化アルゴリズムが考慮されるコスト関数の局所最小性能に収束することを避けることができる。
本稿では、リカレントな人工ニューラルネットワークとして表現される非線形状態空間モデルの初期化を改良し、モデル構造に明示的な線形項を含めることの重要性を強調する。
ニューラルネットワークの重みの一部は非線形システムの線形近似から初期化され、その他はランダム値やゼロを用いて初期化される。
提案手法に対する初期化手法の有効性を2つのベンチマーク例で示す。
関連論文リスト
- The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Initialization Approach for Nonlinear State-Space Identification via the
Subspace Encoder Approach [0.0]
SUBNETは入力出力データから非線形状態空間モデルを特定するために開発された。
状態エンコーダ関数を導入し、過去の入力出力データから現在の状態を再構築する。
本稿では,Best Linear Approximation (BLA) を用いた部分空間エンコーダ手法の初期化に焦点を当てる。
論文 参考訳(メタデータ) (2023-04-04T20:57:34Z) - Neural Abstractions [72.42530499990028]
本稿では,ニューラルネットワークを用いた非線形力学モデルの安全性検証手法を提案する。
提案手法は,既存のベンチマーク非線形モデルにおいて,成熟度の高いFlow*と同等に動作することを示す。
論文 参考訳(メタデータ) (2023-01-27T12:38:09Z) - A Priori Denoising Strategies for Sparse Identification of Nonlinear
Dynamical Systems: A Comparative Study [68.8204255655161]
本研究では, 局所的およびグローバルな平滑化手法の性能と, 状態測定値の偏差について検討・比較する。
一般に,測度データセット全体を用いたグローバルな手法は,局所点の周辺に隣接するデータサブセットを用いる局所的手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-01-29T23:31:25Z) - Subquadratic Overparameterization for Shallow Neural Networks [60.721751363271146]
私たちは、標準的なニューラルトレーニング戦略を採用することができる分析フレームワークを提供しています。
我々は、Desiderata viaak-Lojasiewicz, smoothness, and standard assumptionsを達成する。
論文 参考訳(メタデータ) (2021-11-02T20:24:01Z) - On the Explicit Role of Initialization on the Convergence and Implicit
Bias of Overparametrized Linear Networks [1.0323063834827415]
勾配流下で訓練された単層線形ネットワークの新たな解析法を提案する。
正方形損失はその最適値に指数関数的に収束することを示す。
我々は、トレーニングされたネットワークとmin-norm解の間の距離に基づいて、新しい非漸近上界を導出する。
論文 参考訳(メタデータ) (2021-05-13T15:13:51Z) - Convergence rates for gradient descent in the training of
overparameterized artificial neural networks with biases [3.198144010381572]
近年、人工ニューラルネットワークは、古典的なソリューションが近づいている多数の問題に対処するための強力なツールに発展しています。
ランダムな勾配降下アルゴリズムが限界に達する理由はまだ不明である。
論文 参考訳(メタデータ) (2021-02-23T18:17:47Z) - Parameter Estimation with Dense and Convolutional Neural Networks
Applied to the FitzHugh-Nagumo ODE [0.0]
密度層と畳み込み層を用いた深層ニューラルネットワークを逆問題として提示し,Fitz-Nagumoモデルのパラメータを推定する。
深層ニューラルネットワークは、動的モデルやプロセスにおけるパラメータを推定する可能性があり、フレームワークのパラメータを正確に予測することができることを実証する。
論文 参考訳(メタデータ) (2020-12-12T01:20:42Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Loss landscapes and optimization in over-parameterized non-linear
systems and neural networks [20.44438519046223]
広域ニューラルネットワークがPL$*$条件を満たすことを示し、(S)GD収束を大域最小値に説明する。
広域ニューラルネットワークがPL$*$条件を満たすことを示し、(S)GD収束を大域最小値に説明する。
論文 参考訳(メタデータ) (2020-02-29T17:18:28Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。