論文の概要: Continual Learning in Recurrent Neural Networks
- arxiv url: http://arxiv.org/abs/2006.12109v3
- Date: Wed, 10 Mar 2021 07:47:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 04:54:42.265510
- Title: Continual Learning in Recurrent Neural Networks
- Title(参考訳): 繰り返しニューラルネットワークにおける連続学習
- Authors: Benjamin Ehret, Christian Henning, Maria R. Cervera, Alexander
Meulemans, Johannes von Oswald, Benjamin F. Grewe
- Abstract要約: リカレントニューラルネットワーク(RNN)を用いた逐次データ処理における連続学習手法の有効性を評価する。
RNNに弾性重み強化などの重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重
そこで本研究では,重み付け手法の性能が処理シーケンスの長さに直接的な影響を受けず,むしろ高動作メモリ要求の影響を受けていることを示す。
- 参考スコア(独自算出の注目度): 67.05499844830231
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While a diverse collection of continual learning (CL) methods has been
proposed to prevent catastrophic forgetting, a thorough investigation of their
effectiveness for processing sequential data with recurrent neural networks
(RNNs) is lacking. Here, we provide the first comprehensive evaluation of
established CL methods on a variety of sequential data benchmarks.
Specifically, we shed light on the particularities that arise when applying
weight-importance methods, such as elastic weight consolidation, to RNNs. In
contrast to feedforward networks, RNNs iteratively reuse a shared set of
weights and require working memory to process input samples. We show that the
performance of weight-importance methods is not directly affected by the length
of the processed sequences, but rather by high working memory requirements,
which lead to an increased need for stability at the cost of decreased
plasticity for learning subsequent tasks. We additionally provide theoretical
arguments supporting this interpretation by studying linear RNNs. Our study
shows that established CL methods can be successfully ported to the recurrent
case, and that a recent regularization approach based on hypernetworks
outperforms weight-importance methods, thus emerging as a promising candidate
for CL in RNNs. Overall, we provide insights on the differences between CL in
feedforward networks and RNNs, while guiding towards effective solutions to
tackle CL on sequential data.
- Abstract(参考訳): 破滅的な忘れを抑えるために多種多様な連続学習法(CL)が提案されているが、繰り返しニューラルネットワーク(RNN)を用いたシーケンシャルデータ処理の有効性について、徹底的に検討されている。
本稿では,さまざまな逐次データベンチマークを用いて,確立されたCL手法の総合評価を行う。
具体的には、RNNに弾性重み強化などの重み重要度法を適用する際に生じる特異性について光を当てた。
フィードフォワードネットワークとは対照的に、RNNは共有重みの集合を反復的に再利用し、入力サンプルを処理するために作業メモリを必要とする。
重み付与手法の性能は, 処理シーケンスの長さに直接影響するものではなく, 高い作業メモリ要求によって直接影響を受けることを示し, その後のタスクを学習するための可塑性の低下による安定性の必要性が高まることを示した。
さらに、線形rnnの研究により、この解釈を支持する理論的議論を提供する。
本研究は, 確立したCL法を再帰的に移植できることを示すとともに, ハイパーネットワークスに基づく最近の正規化手法は, 重量重み付け法よりも優れており, RNNにおけるCLの有望な候補として浮上していることを示す。
全体として、フィードフォワードネットワークとRNNにおけるCLの差異に関する洞察を提供するとともに、逐次データにおけるCLに取り組む効果的なソリューションへと導く。
関連論文リスト
- Forget but Recall: Incremental Latent Rectification in Continual Learning [21.600690867361617]
変化するデータストリームを継続的に学習する本質的な能力は、ディープニューラルネットワーク(DNN)のデシプラタムである
既存の継続学習アプローチは、リプレイの模範を保ち、学習を規則化し、あるいは新しいタスクに専用容量を割り当てる。
本稿では,Incrmental Latent Rectification (ILR) と呼ばれる,漸進学習のための未探索CL方向について検討する。
論文 参考訳(メタデータ) (2024-06-25T08:57:47Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Continual Learning with Dependency Preserving Hypernetworks [14.102057320661427]
継続学習(CL)問題に対処するための効果的なアプローチは、ターゲットネットワークのタスク依存重みを生成するハイパーネットワークを使用することである。
本稿では,パラメータの効率を保ちながら,依存関係保存型ハイパーネットワークを用いて対象ネットワークの重み付けを生成する手法を提案する。
さらに,RNNベースのハイパーネットワークのための新しい正規化手法とネットワーク成長手法を提案し,継続学習性能をさらに向上させる。
論文 参考訳(メタデータ) (2022-09-16T04:42:21Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Continual Learning for Recurrent Neural Networks: a Review and Empirical
Evaluation [12.27992745065497]
リカレントニューラルネットワークによる連続学習は、受信データが定常的でない多数のアプリケーションへの道を開くことができる。
コントリビューションの分類とベンチマークのレビューを提供することで、シーケンシャルデータ処理のためのCLに関する文献を整理します。
我々は既存のデータセットに基づくシーケンシャルデータを持つclの新しいベンチマークを2つ提案する。
論文 参考訳(メタデータ) (2021-03-12T19:25:28Z) - A Fully Tensorized Recurrent Neural Network [48.50376453324581]
重み付けされたRNNアーキテクチャを導入し、各リカレントセル内の個別の重み付け行列を共同で符号化する。
このアプローチはモデルのサイズを数桁削減するが、通常のRNNと同等あるいは優れた性能を維持している。
論文 参考訳(メタデータ) (2020-10-08T18:24:12Z) - SRDCNN: Strongly Regularized Deep Convolution Neural Network
Architecture for Time-series Sensor Signal Classification Tasks [4.950427992960756]
SRDCNN: 時系列分類タスクを実行するために, SRDCNN(Strongly Regularized Deep Convolution Neural Network)をベースとしたディープアーキテクチャを提案する。
提案手法の新規性は、ネットワークウェイトが L1 と L2 のノルム法則によって正則化されることである。
論文 参考訳(メタデータ) (2020-07-14T08:42:39Z) - Frequentist Uncertainty in Recurrent Neural Networks via Blockwise
Influence Functions [121.10450359856242]
リカレントニューラルネットワーク(RNN)は、シーケンシャルおよび時系列データのモデリングに有効である。
RNNにおける既存の不確実性定量化のアプローチは、主にベイズ法に基づいている。
a)モデルトレーニングに干渉せず、その精度を損なうことなく、(b)任意のRNNアーキテクチャに適用し、(c)推定不確かさ間隔に関する理論的カバレッジ保証を提供する。
論文 参考訳(メタデータ) (2020-06-20T22:45:32Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z) - Continual Learning with Gated Incremental Memories for sequential data
processing [14.657656286730736]
従来の知識を忘れずに動的で非定常的な環境で学習する能力、あるいは継続学習(CL)は、適応型ソリューションのスケーラブルで信頼性の高いデプロイを可能にする重要な手段である。
本研究では,従来の知識を忘れることなく,入力分布における概念ドリフトに対処できるCLのためのリカレントニューラルネットワーク(RNN)モデルを提案する。
論文 参考訳(メタデータ) (2020-04-08T16:00:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。