論文の概要: Stability of Internal States in Recurrent Neural Networks Trained on
Regular Languages
- arxiv url: http://arxiv.org/abs/2006.10828v1
- Date: Thu, 18 Jun 2020 19:50:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 13:06:39.222583
- Title: Stability of Internal States in Recurrent Neural Networks Trained on
Regular Languages
- Title(参考訳): 正規言語で訓練されたリカレントニューラルネットワークの内部状態の安定性
- Authors: Christian Oliva and Luis F. Lago-Fern\'andez
- Abstract要約: 正規言語認識のためのニューラルネットワークの安定性について検討する。
この飽和状態において、ネットワークアクティベーションの分析は、有限状態機械における離散状態に似た一連のクラスターを示す。
入力シンボルに対応する状態間の遷移は決定論的かつ安定であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We provide an empirical study of the stability of recurrent neural networks
trained to recognize regular languages. When a small amount of noise is
introduced into the activation function, the neurons in the recurrent layer
tend to saturate in order to compensate the variability. In this saturated
regime, analysis of the network activation shows a set of clusters that
resemble discrete states in a finite state machine. We show that transitions
between these states in response to input symbols are deterministic and stable.
The networks display a stable behavior for arbitrarily long strings, and when
random perturbations are applied to any of the states, they are able to recover
and their evolution converges to the original clusters. This observation
reinforces the interpretation of the networks as finite automata, with neurons
or groups of neurons coding specific and meaningful input patterns.
- Abstract(参考訳): 正規言語認識を訓練した繰り返しニューラルネットワークの安定性に関する実証研究を行った。
活性化関数に少量のノイズが導入された場合、リカレント層内のニューロンは変動を補償するために飽和する傾向にある。
この飽和状態において、ネットワークアクティベーションの分析は、有限状態機械における離散状態に似た一連のクラスターを示す。
入力シンボルに対応する状態間の遷移は決定論的かつ安定であることを示す。
ネットワークは任意の長い弦に対して安定な振舞いを示し、ランダムな摂動が任意の状態に適用されると、回復することができ、その進化は元のクラスタに収束する。
この観察は、ネットワークを有限オートマトンとして解釈し、特定の、意味のある入力パターンをコーディングするニューロンやニューロンのグループを強化する。
関連論文リスト
- Advancing Spatio-Temporal Processing in Spiking Neural Networks through Adaptation [6.233189707488025]
本稿では、適応LIFニューロンとそのネットワークの動的、計算的、および学習特性について分析する。
適応LIFニューロンのネットワークの優越性は、複雑な時系列の予測と生成にまで及んでいることを示す。
論文 参考訳(メタデータ) (2024-08-14T12:49:58Z) - Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Input correlations impede suppression of chaos and learning in balanced
rate networks [58.720142291102135]
ニューラルネットワークにおける情報符号化と学習は、時間変化による刺激が自発的なネットワーク活動を制御することができるかに依存する。
平衡状態の焼成速度ネットワークでは、リカレントダイナミクスの外部制御は入力の相関に強く依存することを示す。
論文 参考訳(メタデータ) (2022-01-24T19:20:49Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - Lipschitz Recurrent Neural Networks [100.72827570987992]
我々のリプシッツ再帰ユニットは、他の連続時間RNNと比較して、入力やパラメータの摂動に対してより堅牢であることを示す。
実験により,Lipschitz RNNは,ベンチマークタスクにおいて,既存のリカレントユニットよりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-22T08:44:52Z) - Separation of Memory and Processing in Dual Recurrent Neural Networks [0.0]
入力に接続する繰り返し層とフィードフォワード層を積み重ねるニューラルネットワークアーキテクチャを探索する。
繰り返し単位の活性化関数にノイズが導入されたとき、これらのニューロンは二項活性化状態に強制され、ネットワークは有限オートマトンのように振る舞う。
論文 参考訳(メタデータ) (2020-05-17T11:38:42Z) - Translating Diffusion, Wavelets, and Regularisation into Residual
Networks [15.104201344012347]
畳み込みニューラルネットワーク(CNN)はよく機能するが、安定性はよく分かっていない。
我々は、古典的アプローチが証明可能な安定性を保証する信号の復号化という単純な問題を考える。
我々は、これらの古典的手法の数値近似を、特定の残留ネットワークアーキテクチャとして解釈する。
これにより、微分、縮退関数、正規化関数をアクティベーション関数に変換する辞書が作られる。
論文 参考訳(メタデータ) (2020-02-07T13:07:34Z) - Mean-Field and Kinetic Descriptions of Neural Differential Equations [0.0]
この研究では、ニューラルネットワークの特定のクラス、すなわち残留ニューラルネットワークに焦点を当てる。
我々は、ネットワークのパラメータ、すなわち重みとバイアスに関する定常状態と感度を分析する。
残留ニューラルネットワークにインスパイアされた微視的ダイナミクスの修正は、ネットワークのフォッカー・プランクの定式化につながる。
論文 参考訳(メタデータ) (2020-01-07T13:41:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。