論文の概要: Slow and Steady Wins the Race: Maintaining Plasticity with Hare and Tortoise Networks
- arxiv url: http://arxiv.org/abs/2406.02596v1
- Date: Sat, 1 Jun 2024 05:55:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 23:49:24.573344
- Title: Slow and Steady Wins the Race: Maintaining Plasticity with Hare and Tortoise Networks
- Title(参考訳): Slow and Steadyがレースで優勝:ハレとトルトーデスのネットワークでプラスチックを維持する
- Authors: Hojoon Lee, Hyeonseo Cho, Hyunseung Kim, Donghu Kim, Dugki Min, Jaegul Choo, Clare Lyle,
- Abstract要約: 訓練性を維持して可塑性を高める方法は、一般化に限られた利益をもたらす。
本稿では,脳の補完学習システムにインスパイアされたHare & Tortoiseを紹介する。
我々の方法は一般的な知識を維持しながら可塑性を保ちます。
- 参考スコア(独自算出の注目度): 32.32964498652615
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study investigates the loss of generalization ability in neural networks, revisiting warm-starting experiments from Ash & Adams. Our empirical analysis reveals that common methods designed to enhance plasticity by maintaining trainability provide limited benefits to generalization. While reinitializing the network can be effective, it also risks losing valuable prior knowledge. To this end, we introduce the Hare & Tortoise, inspired by the brain's complementary learning system. Hare & Tortoise consists of two components: the Hare network, which rapidly adapts to new information analogously to the hippocampus, and the Tortoise network, which gradually integrates knowledge akin to the neocortex. By periodically reinitializing the Hare network to the Tortoise's weights, our method preserves plasticity while retaining general knowledge. Hare & Tortoise can effectively maintain the network's ability to generalize, which improves advanced reinforcement learning algorithms on the Atari-100k benchmark. The code is available at https://github.com/dojeon-ai/hare-tortoise.
- Abstract(参考訳): 本研究では、ニューラルネットワークにおける一般化能力の喪失について検討し、Ash & Adamsによる温暖化開始実験を再考する。
実験により, 可塑性向上のための一般的な手法として, 訓練性を維持することにより, 一般化のメリットが限定されていることがわかった。
ネットワークを再起動することは効果的であるが、価値ある事前知識を失うリスクもある。
この目的のために,脳の補完学習システムに触発されたHare & Tortoiseを紹介した。
Hare & Tortoiseは、海馬と似た新しい情報に迅速に適応するHareネットワークと、ネオコルテックスに似た知識を徐々に統合するTortoiseネットワークの2つのコンポーネントで構成されている。
周期的にHareネットワークをトルトーゼの重みに再起動させることで、一般的な知識を維持しながら可塑性を保ちます。
Hare & Tortoiseは、Atari-100kベンチマークの高度な強化学習アルゴリズムを改善するために、ネットワークの一般化能力を効果的に維持することができる。
コードはhttps://github.com/dojeon-ai/hare-tortoise.comで公開されている。
関連論文リスト
- Benign Overfitting for Two-layer ReLU Convolutional Neural Networks [60.19739010031304]
ラベルフリップ雑音を持つ2層ReLU畳み込みニューラルネットワークを学習するためのアルゴリズム依存型リスクバウンダリを確立する。
緩やかな条件下では、勾配降下によってトレーニングされたニューラルネットワークは、ほぼゼロに近いトレーニング損失とベイズ最適試験リスクを達成できることを示す。
論文 参考訳(メタデータ) (2023-03-07T18:59:38Z) - Neural Networks with Sparse Activation Induced by Large Bias: Tighter Analysis with Bias-Generalized NTK [86.45209429863858]
ニューラル・タンジェント・カーネル(NTK)における一層ReLUネットワークのトレーニングについて検討した。
我々は、ニューラルネットワークが、テクティトビア一般化NTKと呼ばれる異なる制限カーネルを持っていることを示した。
ニューラルネットの様々な特性をこの新しいカーネルで研究する。
論文 参考訳(メタデータ) (2023-01-01T02:11:39Z) - QuickNets: Saving Training and Preventing Overconfidence in Early-Exit
Neural Architectures [2.28438857884398]
ニューラルネットワークの高速トレーニングのための新しいカスケードトレーニングアルゴリズムであるQuickNetsを紹介した。
我々はQuickNetsが学習を動的に分散し、標準的なバックプロパゲーションと比較してトレーニングコストと推論コストを削減できることを実証した。
論文 参考訳(メタデータ) (2022-12-25T07:06:32Z) - Improved Convergence Guarantees for Shallow Neural Networks [91.3755431537592]
勾配降下法により訓練された深度2ニューラルネットの収束度を世界最小とする。
我々のモデルには、二次損失関数による回帰、完全連結フィードフォワードアーキテクチャ、RelUアクティベーション、ガウスデータインスタンス、逆ラベルといった特徴がある。
彼らは、少なくとも我々のモデルでは、収束現象がNTK体制をはるかに超越していることを強く示唆している」。
論文 参考訳(メタデータ) (2022-12-05T14:47:52Z) - Improving the Trainability of Deep Neural Networks through Layerwise
Batch-Entropy Regularization [1.3999481573773072]
ニューラルネットワークの各層を通しての情報の流れを定量化するバッチエントロピーを導入,評価する。
損失関数にバッチエントロピー正規化項を追加するだけで、500層からなる「バニラ」完全連結ネットワークと畳み込みニューラルネットワークをトレーニングできることが示される。
論文 参考訳(メタデータ) (2022-08-01T20:31:58Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - Human-Level Control through Directly-Trained Deep Spiking Q-Networks [16.268397551693862]
スパイキングニューラルネットワーク(SNN)は、その高エネルギー効率のため、ニューロモルフィックなハードウェアに大きな可能性を秘めている。
本稿では,Leakyインテグレート・アンド・ファイアニューロンとDeep Q-Networkに基づいて,直接学習した深部スパイキング強化学習アーキテクチャを提案する。
我々の研究は、直接学習されたSNNを用いて、複数のAtariゲームで最先端のパフォーマンスを達成する最初のものである。
論文 参考訳(メタデータ) (2021-12-13T09:46:17Z) - Faster Deep Reinforcement Learning with Slower Online Network [90.34900072689618]
DQNとRainbowという2つの人気のあるディープ強化学習アルゴリズムに、オンラインネットワークをターゲットネットワークの近くに留まらせるインセンティブを与えるアップデートを与えました。
その結果、DQN ProとRainbow Proと呼ばれるエージェントは、Atariベンチマークで元のエージェントよりも大幅に性能が向上した。
論文 参考訳(メタデータ) (2021-12-10T22:07:06Z) - Training Spiking Neural Networks Using Lessons From Deep Learning [28.827506468167652]
シナプスとニューロンの内部構造は、ディープラーニングの未来を垣間見ることができます。
いくつかのアイデアはニューロモルフィックエンジニアリングコミュニティでよく受け入れられ、一般的に使われているが、他のアイデアはここで初めて提示または正当化されている。
PythonパッケージであるsnnTorchを使って、この論文を補完する一連のインタラクティブチュートリアルも利用可能である。
論文 参考訳(メタデータ) (2021-09-27T09:28:04Z) - Some thoughts on catastrophic forgetting and how to learn an algorithm [0.0]
我々は,二進数の追加に対して正しいアルゴリズムを復元するためにトレーニング可能な,異なるアーキテクチャを持つニューラルネットワークを提案する。
ニューラルネットワークは破滅的な忘れ物に苦しむだけでなく、トレーニングが進むにつれて、目に見えない数字の予測能力を向上させる。
論文 参考訳(メタデータ) (2021-08-09T11:12:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。