論文の概要: On the stability properties of Gated Recurrent Units neural networks
- arxiv url: http://arxiv.org/abs/2011.06806v6
- Date: Sun, 10 Oct 2021 16:46:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 00:56:31.300499
- Title: On the stability properties of Gated Recurrent Units neural networks
- Title(参考訳): Gated Recurrent Units ニューラルネットワークの安定性特性について
- Authors: Fabio Bonassi, Marcello Farina, Riccardo Scattolini
- Abstract要約: 本稿では,GRU(Gated Recurrent Units)ニューラルネットワークの入力状態安定性(ISS)とインクリメンタル入力状態安定性(deltaISS)を保証するための十分な条件を提供する。
条件はトレーニングされたネットワークの安定性を確認するために使用したり、GRUのトレーニング手順中に制約として適用することができる。
得られたトレーニング手順は、Quadruple Tankの非線形ベンチマークシステムでテストされ、良好なモデリング性能を示す。
- 参考スコア(独自算出の注目度): 0.12891210250935145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of this paper is to provide sufficient conditions for guaranteeing
the Input-to-State Stability (ISS) and the Incremental Input-to-State Stability
({\delta}ISS) of Gated Recurrent Units (GRUs) neural networks. These
conditions, devised for both single-layer and multi-layer architectures,
consist of nonlinear inequalities on network's weights. They can be employed to
check the stability of trained networks, or can be enforced as constraints
during the training procedure of a GRU. The resulting training procedure is
tested on a Quadruple Tank nonlinear benchmark system, showing satisfactory
modeling performances.
- Abstract(参考訳): 本研究の目的は,GRU(Gated Recurrent Units)ニューラルネットワークの入力状態安定性(ISS)とインクリメンタル入力状態安定性({\delta}ISS)を保証するための十分な条件を提供することである。
これらの条件は単層と多層アーキテクチャの両方で考案され、ネットワークの重みの非線形不等式からなる。
トレーニングされたネットワークの安定性を確認するために使用したり、GRUのトレーニング手順中に制約として適用することもできる。
得られたトレーニング手順は、Quadruple Tankの非線形ベンチマークシステムでテストされ、良好なモデリング性能を示す。
関連論文リスト
- Lyapunov-stable Neural Control for State and Output Feedback: A Novel Formulation [67.63756749551924]
学習ベースのニューラルネットワーク(NN)制御ポリシは、ロボット工学と制御の幅広いタスクにおいて、印象的な経験的パフォーマンスを示している。
非線形力学系を持つNNコントローラのトラクション領域(ROA)に対するリアプノフ安定性の保証は困難である。
我々は、高速な経験的ファルシフィケーションと戦略的正則化を用いて、Lyapunov証明書とともにNNコントローラを学習するための新しいフレームワークを実証する。
論文 参考訳(メタデータ) (2024-04-11T17:49:15Z) - Towards Continual Learning Desiderata via HSIC-Bottleneck
Orthogonalization and Equiangular Embedding [55.107555305760954]
本稿では,レイヤワイドパラメータのオーバーライトや決定境界の歪みに起因する,概念的にシンプルで効果的な手法を提案する。
提案手法は,ゼロの指数バッファと1.02倍の差が絶対的に優れていても,競争精度が向上する。
論文 参考訳(メタデータ) (2024-01-17T09:01:29Z) - Deep Long-Short Term Memory networks: Stability properties and
Experimental validation [0.20999222360659603]
ネットワークの重みに関する適切な条件を利用して、データから実績ある$delta$ISS LSTMモデルを学習できるトレーニング手順を構築することができることを示す。
提案手法は、実ブレーキバイワイヤ装置を用いて、入力出力データからシステムのモデルを特定する。
論文 参考訳(メタデータ) (2023-04-06T10:02:17Z) - Robust Recurrent Neural Network to Identify Ship Motion in Open Water
with Performance Guarantees -- Technical Report [8.441687388985162]
リカレントニューラルネットワークは、入力出力測定から未知の非線形システムの力学を純粋に学習することができる。
本研究では,非線形乱れを伴う線形時間不変系として,リカレントニューラルネットワークを表現する。
論文 参考訳(メタデータ) (2022-12-12T09:07:37Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - Neural network optimal feedback control with enhanced closed loop
stability [3.0981875303080795]
近年の研究では、教師あり学習は高次元非線形力学系のための最適フィードバックコントローラを設計するための有効なツールであることが示されている。
しかし、これらのニューラルネットワーク(NN)コントローラの挙動はまだよく理解されていない。
本稿では,NNコントローラがシステムの安定化に有効であることを示すために,数値シミュレーションを用いた。
論文 参考訳(メタデータ) (2021-09-15T17:59:20Z) - Robust Stability of Neural-Network Controlled Nonlinear Systems with
Parametric Variability [2.0199917525888895]
ニューラルネットワーク制御非線形システムの安定性と安定化性の理論を考案する。
このような頑健な安定化NNコントローラの計算には、安定性保証トレーニング(SGT)も提案されている。
論文 参考訳(メタデータ) (2021-09-13T05:09:30Z) - Recurrent Neural Network Controllers Synthesis with Stability Guarantees
for Partially Observed Systems [6.234005265019845]
本稿では、不確実な部分観測システムのための動的制御系として、リカレントニューラルネットワーク(RNN)の重要なクラスを考える。
本稿では、再パラメータ化空間における安定性条件を反復的に強制する計画的ポリシー勾配法を提案する。
数値実験により,本手法は,より少ないサンプルを用いて制御器の安定化を学習し,政策勾配よりも高い最終性能を達成することを示す。
論文 参考訳(メタデータ) (2021-09-08T18:21:56Z) - DAIS: Automatic Channel Pruning via Differentiable Annealing Indicator
Search [55.164053971213576]
畳み込みニューラルネットワークは,計算オーバーヘッドが大きいにもかかわらず,コンピュータビジョンタスクの実行において大きな成功を収めている。
構造的(チャネル)プルーニングは、通常、ネットワーク構造を保ちながらモデルの冗長性を低減するために適用される。
既存の構造化プルーニング法では、手作りのルールが必要であり、これは大きなプルーニング空間に繋がる可能性がある。
論文 参考訳(メタデータ) (2020-11-04T07:43:01Z) - Lipschitz Recurrent Neural Networks [100.72827570987992]
我々のリプシッツ再帰ユニットは、他の連続時間RNNと比較して、入力やパラメータの摂動に対してより堅牢であることを示す。
実験により,Lipschitz RNNは,ベンチマークタスクにおいて,既存のリカレントユニットよりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-22T08:44:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。