論文の概要: Overcome Anterograde Forgetting with Cycled Memory Networks
- arxiv url: http://arxiv.org/abs/2112.02342v1
- Date: Sat, 4 Dec 2021 14:06:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-09 13:43:02.052203
- Title: Overcome Anterograde Forgetting with Cycled Memory Networks
- Title(参考訳): サイクルメモリネットワークによるアンテログレードフォーティングの克服
- Authors: Jian Peng, Dingqi Ye, Bo Tang, Yinjie Lei, Yu Liu, Haifeng Li
- Abstract要約: Cycled Memory Networks (CMN) は、いくつかのタスク関連、タスク対応、クラス増分、クロスドメインベンチマークを忘れることに効果的に対処できる。
- 参考スコア(独自算出の注目度): 23.523768741540117
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning from a sequence of tasks for a lifetime is essential for an agent
towards artificial general intelligence. This requires the agent to
continuously learn and memorize new knowledge without interference. This paper
first demonstrates a fundamental issue of lifelong learning using neural
networks, named anterograde forgetting, i.e., preserving and transferring
memory may inhibit the learning of new knowledge. This is attributed to the
fact that the learning capacity of a neural network will be reduced as it keeps
memorizing historical knowledge, and the fact that conceptual confusion may
occur as it transfers irrelevant old knowledge to the current task. This work
proposes a general framework named Cycled Memory Networks (CMN) to address the
anterograde forgetting in neural networks for lifelong learning. The CMN
consists of two individual memory networks to store short-term and long-term
memories to avoid capacity shrinkage. A transfer cell is designed to connect
these two memory networks, enabling knowledge transfer from the long-term
memory network to the short-term memory network to mitigate the conceptual
confusion, and a memory consolidation mechanism is developed to integrate
short-term knowledge into the long-term memory network for knowledge
accumulation. Experimental results demonstrate that the CMN can effectively
address the anterograde forgetting on several task-related, task-conflict,
class-incremental and cross-domain benchmarks.
- Abstract(参考訳): 生涯の一連のタスクから学ぶことは、人工知能に対するエージェントにとって不可欠である。
これはエージェントが干渉することなく新しい知識を継続的に学習し記憶することを必要とする。
本稿では,ニューラルネットワークを用いた生涯学習において,記憶の保存と伝達が新たな知識の学習を阻害する可能性があることを示す。
これは、ニューラルネットワークの学習能力が歴史的知識を記憶し続けるにつれて減少するという事実と、関連する古い知識を現在のタスクに移す際に、概念的混乱が発生するという事実に起因する。
本研究は,生涯学習のためのニューラルネットワークにおけるアンテログラード・フォーティングに対処するために,cycled memory networks (cmn) という汎用フレームワークを提案する。
CMNは2つの個別メモリネットワークから構成され、短期記憶と長期記憶を保存し、容量の縮小を回避する。
転送セルは、これらの2つのメモリネットワークを接続し、長期記憶ネットワークから短期記憶ネットワークへの知識伝達を可能にして、概念的混乱を緩和し、短期記憶を知識蓄積のための長期記憶ネットワークに統合するメモリ統合機構を開発する。
実験結果から,CMN はタスク関連,タスク対応,クラス増分,クロスドメインのベンチマークにおいて,アンテログラウンドの忘れを効果的に解決できることが示された。
関連論文リスト
- Sequential Learning in the Dense Associative Memory [1.2289361708127877]
逐次学習問題におけるDense Associative Memoryの性能について検討する。
本稿では,既存の逐次学習手法をDense Associative Memoryに適用し,逐次学習性能を向上させることを提案する。
論文 参考訳(メタデータ) (2024-09-24T04:23:00Z) - Saliency-Guided Hidden Associative Replay for Continual Learning [13.551181595881326]
継続学習(Continuous Learning)は、人間の学習に似た一連のタスクを通じてニューラルネットワークをトレーニングすることに焦点を当てた、次世代AIの急成長する領域である。
本稿では,継続的学習のためのSaliency Guided Hidden Associative Replayを提案する。
この新しいフレームワークは、アソシエイトメモリをリプレイベースの戦略でシナジする。SHARCは主にスパースメモリエンコーディングを通じて、有能なデータセグメントをアーカイブする。
論文 参考訳(メタデータ) (2023-10-06T15:54:12Z) - Adaptive Reorganization of Neural Pathways for Continual Learning with Spiking Neural Networks [9.889775504641925]
神経経路を適応的に再編成する脳にインスパイアされた連続学習アルゴリズムを提案する。
提案モデルでは,様々な連続学習タスクにおいて,性能,エネルギー消費,メモリ容量が一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-09-18T07:56:40Z) - Long Short-term Memory with Two-Compartment Spiking Neuron [64.02161577259426]
LSTM-LIFとよばれる,生物学的にインスパイアされたLong Short-Term Memory Leaky Integrate-and-Fireのスパイキングニューロンモデルを提案する。
実験結果は,時間的分類タスクの多種多様な範囲において,優れた時間的分類能力,迅速な訓練収束,ネットワークの一般化性,LSTM-LIFモデルの高エネルギー化を実証した。
したがって、この研究は、新しいニューロモルフィック・コンピューティング・マシンにおいて、困難な時間的処理タスクを解決するための、無数の機会を開放する。
論文 参考訳(メタデータ) (2023-07-14T08:51:03Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Learning with Recoverable Forgetting [77.56338597012927]
学習wIth Recoverable Forgettingは、タスクまたはサンプル固有の知識の除去とリカバリを明示的に処理する。
具体的には、LIRFは2つの革新的なスキーム、すなわち知識預金と離脱をもたらす。
いくつかのデータセットで実験を行い、提案したLIRF戦略が一般化能力を満足させる結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-07-17T16:42:31Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Learning to Rehearse in Long Sequence Memorization [107.14601197043308]
既存の推論タスクは、しばしば、推論中に入力内容が常にアクセス可能であるという重要な仮定を持つ。
メモリ拡張ニューラルネットワークは、人間のような書き込み読み取りメモリを導入し、1回のパスで長い入力シーケンスを圧縮し記憶する。
しかし、2つの重大な欠点がある: 1) メモリを現在の情報から継続的に更新し、必然的に初期の内容を忘れる; 2) 重要な情報を区別せず、全てのコンテンツを平等に扱う。
本稿では,履歴サンプリング装置を用いた自己教師型リハーサルによる長期記憶向上のためのリハーサルメモリを提案する。
論文 参考訳(メタデータ) (2021-06-02T11:58:30Z) - Schematic Memory Persistence and Transience for Efficient and Robust
Continual Learning [8.030924531643532]
継続学習は、次世代人工知能(AI)に向けた有望なステップであると考えられている
まだ非常に原始的であり、既存の作品は主に(破滅的な)忘れの回避に焦点が当てられている。
神経科学の最近の進歩を踏まえた,外部記憶を用いた連続学習のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-05-05T14:32:47Z) - Triple Memory Networks: a Brain-Inspired Method for Continual Learning [35.40452724755021]
ニューラルネットワークは、新しいタスクを学ぶ際にパラメータを調整するが、古いタスクをうまく実行できない。
脳は破滅的な干渉なしに新しい経験を継続的に学習する能力を持っている。
このような脳戦略に触発されて、連続学習のための三重記憶ネットワーク(TMN)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-03-06T11:35:24Z) - Encoding-based Memory Modules for Recurrent Neural Networks [79.42778415729475]
本稿では,リカレントニューラルネットワークの設計とトレーニングの観点から,記憶サブタスクについて考察する。
本稿では,線形オートエンコーダを組み込んだエンコーディングベースのメモリコンポーネントを特徴とする新しいモデルであるLinear Memory Networkを提案する。
論文 参考訳(メタデータ) (2020-01-31T11:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。