論文の概要: Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay
- arxiv url: http://arxiv.org/abs/2112.04728v1
- Date: Thu, 9 Dec 2021 07:11:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 15:29:50.686197
- Title: Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay
- Title(参考訳): 内因性再生を伴う自己組織的地図における破滅的忘れることの低減
- Authors: Hitesh Vaidya, Travis Desell, and Alexander Ororbia
- Abstract要約: 生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
- 参考スコア(独自算出の注目度): 67.50637511633212
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A lifelong learning agent is able to continually learn from potentially
infinite streams of pattern sensory data. One major historic difficulty in
building agents that adapt in this way is that neural systems struggle to
retain previously-acquired knowledge when learning from new samples. This
problem is known as catastrophic forgetting (interference) and remains an
unsolved problem in the domain of machine learning to this day. While
forgetting in the context of feedforward networks has been examined extensively
over the decades, far less has been done in the context of alternative
architectures such as the venerable self-organizing map (SOM), an unsupervised
neural model that is often used in tasks such as clustering and dimensionality
reduction. Although the competition among its internal neurons might carry the
potential to improve memory retention, we observe that a fixed-sized SOM
trained on task incremental data, i.e., it receives data points related to
specific classes at certain temporal increments, experiences significant
forgetting. In this study, we propose the continual SOM (c-SOM), a model that
is capable of reducing its own forgetting when processing information.
- Abstract(参考訳): 生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
このように適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(interference)と呼ばれ、今日まで機械学習の領域では未解決の問題である。
フィードフォワードネットワークのコンテキストを忘れることは、何十年にもわたって広く検討されてきたが、クラスタリングや次元減少といったタスクでよく使用される教師なしニューラルモデルであるベネラブル自己組織化マップ(SOM)のような代替アーキテクチャの文脈では、はるかに少ない。
内部ニューロン間の競合は、記憶保持性を向上させる可能性があるが、タスクインクリメンタルなデータに基づいて訓練された固定サイズのSOMは、特定の時間的増分時に特定のクラスに関連するデータポイントを受け取り、大きな忘れを経験する。
本研究では,情報処理時に自分自身の忘れを軽減できるモデルである連続SOM(c-SOM)を提案する。
関連論文リスト
- Neuromimetic metaplasticity for adaptive continual learning [2.1749194587826026]
本研究では,人間の作業記憶にインスパイアされたメタ塑性モデルを提案する。
このアプローチの重要な側面は、安定から柔軟性までの異なるタイプのシナプスを実装し、それらをランダムに混在させて、柔軟性の異なるシナプス接続をトレーニングすることである。
このモデルは、追加の訓練や構造変更を必要とせず、メモリ容量と性能のバランスのとれたトレードオフを実現した。
論文 参考訳(メタデータ) (2024-07-09T12:21:35Z) - ELiSe: Efficient Learning of Sequences in Structured Recurrent Networks [1.5931140598271163]
局所的な常時オンおよび位相自由可塑性のみを用いて,効率的な学習シーケンスのモデルを構築した。
鳥の鳴き声学習のモックアップでELiSeの能力を実証し、パラメトリゼーションに関してその柔軟性を実証する。
論文 参考訳(メタデータ) (2024-02-26T17:30:34Z) - Neuro-mimetic Task-free Unsupervised Online Learning with Continual
Self-Organizing Maps [56.827895559823126]
自己組織化マップ(英: Self-organizing map、SOM)は、クラスタリングや次元減少によく用いられるニューラルネットワークモデルである。
低メモリ予算下でのオンライン教師なし学習が可能なSOM(連続SOM)の一般化を提案する。
MNIST, Kuzushiji-MNIST, Fashion-MNISTなどのベンチマークでは, ほぼ2倍の精度が得られた。
論文 参考訳(メタデータ) (2024-02-19T19:11:22Z) - Long Short-term Memory with Two-Compartment Spiking Neuron [64.02161577259426]
LSTM-LIFとよばれる,生物学的にインスパイアされたLong Short-Term Memory Leaky Integrate-and-Fireのスパイキングニューロンモデルを提案する。
実験結果は,時間的分類タスクの多種多様な範囲において,優れた時間的分類能力,迅速な訓練収束,ネットワークの一般化性,LSTM-LIFモデルの高エネルギー化を実証した。
したがって、この研究は、新しいニューロモルフィック・コンピューティング・マシンにおいて、困難な時間的処理タスクを解決するための、無数の機会を開放する。
論文 参考訳(メタデータ) (2023-07-14T08:51:03Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - Understanding Catastrophic Forgetting and Remembering in Continual
Learning with Optimal Relevance Mapping [10.970706194360451]
ニューラルネットワークにおける破滅的な忘れは、継続的な学習にとって重要な問題です。
最適オーバーラップ仮説にインスパイアされたRelevance Mapping Networks(RMN)を紹介します。
我々は、RMNが破滅的な忘れと記憶の双対の問題を乗り越える最適化された表現重複を学ぶことを示しています。
論文 参考訳(メタデータ) (2021-02-22T20:34:00Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Triple Memory Networks: a Brain-Inspired Method for Continual Learning [35.40452724755021]
ニューラルネットワークは、新しいタスクを学ぶ際にパラメータを調整するが、古いタスクをうまく実行できない。
脳は破滅的な干渉なしに新しい経験を継続的に学習する能力を持っている。
このような脳戦略に触発されて、連続学習のための三重記憶ネットワーク(TMN)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-03-06T11:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。