論文の概要: Warming-up recurrent neural networks to maximize reachable
multi-stability greatly improves learning
- arxiv url: http://arxiv.org/abs/2106.01001v1
- Date: Wed, 2 Jun 2021 07:53:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-04 05:21:56.252414
- Title: Warming-up recurrent neural networks to maximize reachable
multi-stability greatly improves learning
- Title(参考訳): 到達可能なマルチテスタビリティを最大化するためのウォーミングアップリカレントニューラルネットワーク
- Authors: Nicolas Vecoven and Damien Ernst and Guillaume Drion
- Abstract要約: 時間依存が長くなると、リカレントニューラルネットワークのトレーニングは難しい。
ウォームアップ(warm-up)と呼ばれるプロセスを通じて、再帰的なネットワーク接続を初期化する一般的な方法を提案する。
ウォーミングアップは、複数のリカレントセルタイプに対する長期メモリベンチマークにおいて、リカレントニューラルネットワークの性能を大幅に改善することを示す。
- 参考スコア(独自算出の注目度): 1.1602089225841632
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training recurrent neural networks is known to be difficult when time
dependencies become long. Consequently, training standard gated cells such as
gated recurrent units and long-short term memory on benchmarks where long-term
memory is required remains an arduous task. In this work, we propose a general
way to initialize any recurrent network connectivity through a process called
"warm-up" to improve its capability to learn arbitrarily long time
dependencies. This initialization process is designed to maximize network
reachable multi-stability, i.e. the number of attractors within the network
that can be reached through relevant input trajectories. Warming-up is
performed before training, using stochastic gradient descent on a specifically
designed loss. We show that warming-up greatly improves recurrent neural
network performance on long-term memory benchmarks for multiple recurrent cell
types, but can sometimes impede precision. We therefore introduce a parallel
recurrent network structure with partial warm-up that is shown to greatly
improve learning on long time-series while maintaining high levels of
precision. This approach provides a general framework for improving learning
abilities of any recurrent cell type when long-term memory is required.
- Abstract(参考訳): リカレントニューラルネットワークのトレーニングは、時間依存が長くなると難しいことが知られている。
そのため、長期メモリを必要とするベンチマークにおいて、ゲートリカレントユニットや長時間メモリなどの標準ゲートセルをトレーニングすることは困難な作業である。
本研究では「ウォームアップ(warm-up)」と呼ばれるプロセスを通じて、任意のリカレントネットワーク接続を初期化する一般的な方法を提案する。
この初期化プロセスは、ネットワーク到達可能なマルチ安定性を最大化するように設計されている。
関連する入力トラジェクタを通じて到達可能なネットワーク内のアトラクタの数。
ウォーミングアップはトレーニング前に、特別に設計された損失に対する確率的勾配降下を用いて行われる。
温暖化は、複数のリカレントセルタイプに対する長期記憶ベンチマークにおいて、リカレントニューラルネットワークの性能を大幅に改善するが、精度を損なうことがある。
そこで本研究では,高レベルな精度を維持しつつ,長時間連続学習の大幅な向上を示す部分ウォームアップを伴う並列リカレントネットワーク構造を提案する。
このアプローチは、長期記憶を必要とする場合の再発細胞タイプの学習能力を改善するための一般的なフレームワークを提供する。
関連論文リスト
- Normalization and effective learning rates in reinforcement learning [52.59508428613934]
正規化層は近年,深層強化学習と連続学習文学においてルネッサンスを経験している。
正規化は、ネットワークパラメータのノルムにおける成長と効果的な学習速度における崩壊の間の等価性という、微妙だが重要な副作用をもたらすことを示す。
そこで本研究では,正規化・プロジェクトと呼ぶ単純な再パラメータ化により,学習率を明示的にする手法を提案する。
論文 参考訳(メタデータ) (2024-07-01T20:58:01Z) - ELiSe: Efficient Learning of Sequences in Structured Recurrent Networks [1.5931140598271163]
局所的な常時オンおよび位相自由可塑性のみを用いて,効率的な学習シーケンスのモデルを構築した。
鳥の鳴き声学習のモックアップでELiSeの能力を実証し、パラメトリゼーションに関してその柔軟性を実証する。
論文 参考訳(メタデータ) (2024-02-26T17:30:34Z) - Online learning of long-range dependencies [7.281873196153901]
本稿では、1つの推論パスのメモリと計算要求を2倍にする高性能なオンライン学習アルゴリズムを提案する。
合成メモリ問題と挑戦的な長距離アリーナベンチマークスイートの実験により,我々のアルゴリズムが競合的に動作していることが判明した。
この長距離依存を学習する能力は、脳内の学習に対する新たな視点を与え、ニューロモルフィックコンピューティングにおける有望な道を開く。
論文 参考訳(メタデータ) (2023-05-25T11:37:01Z) - Critical Learning Periods for Multisensory Integration in Deep Networks [112.40005682521638]
ニューラルネットワークが様々な情報源からの情報を統合する能力は、トレーニングの初期段階において、適切な相関した信号に晒されることに批判的になることを示す。
臨界周期は、訓練されたシステムとその学習された表現の最終性能を決定づける、複雑で不安定な初期過渡的ダイナミクスから生じることを示す。
論文 参考訳(メタデータ) (2022-10-06T23:50:38Z) - Learning Fast and Slow for Online Time Series Forecasting [76.50127663309604]
Fast and Slow Learning Networks (FSNet)は、オンライン時系列予測のための総合的なフレームワークである。
FSNetは、最近の変更への迅速な適応と、同様の古い知識の取得のバランスを取る。
私たちのコードは公開されます。
論文 参考訳(メタデータ) (2022-02-23T18:23:07Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - Short-Term Memory Optimization in Recurrent Neural Networks by
Autoencoder-based Initialization [79.42778415729475]
線形オートエンコーダを用いた列列の明示的暗記に基づく代替解を提案する。
このような事前学習が、長いシーケンスで難しい分類タスクを解くのにどのように役立つかを示す。
提案手法は, 長周期の復元誤差をはるかに小さくし, 微調整時の勾配伝播を良くすることを示す。
論文 参考訳(メタデータ) (2020-11-05T14:57:16Z) - Depth Enables Long-Term Memory for Recurrent Neural Networks [0.0]
本稿では,スタートエンド分離ランク(Start-End separation rank)と呼ばれる時間的情報フローを支援するネットワークの能力を評価する。
より深い再帰的ネットワークは、浅いネットワークで支えられるものよりも高いスタートエンド分離ランクをサポートすることを証明している。
論文 参考訳(メタデータ) (2020-03-23T10:29:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。