論文の概要: Hypothesis-driven Stream Learning with Augmented Memory
- arxiv url: http://arxiv.org/abs/2104.02206v2
- Date: Wed, 7 Apr 2021 01:25:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 13:10:10.494982
- Title: Hypothesis-driven Stream Learning with Augmented Memory
- Title(参考訳): 拡張メモリを用いた仮説駆動型ストリーム学習
- Authors: Mengmi Zhang, Rohil Badkundri, Morgan B. Talbot, Gabriel Kreiman
- Abstract要約: 破滅的な忘れを避けるために一般的な方法は、画像ピクセルとして保存または生成モデルによって再現された古い例の再生と新しい例を分散させることである。
本稿では,画像分類タスクにおけるストリーム学習を考察し,新たな仮説駆動型拡張メモリネットワークを提案する。
本手法は,より効率的なメモリ使用量を提供しながら,SOTA法よりも優れた性能を発揮する。
- 参考スコア(独自算出の注目度): 7.876115370275731
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stream learning refers to the ability to acquire and transfer knowledge
across a continuous stream of data without forgetting and without repeated
passes over the data. A common way to avoid catastrophic forgetting is to
intersperse new examples with replays of old examples stored as image pixels or
reproduced by generative models. Here, we considered stream learning in image
classification tasks and proposed a novel hypotheses-driven Augmented Memory
Network, which efficiently consolidates previous knowledge with a limited
number of hypotheses in the augmented memory and replays relevant hypotheses to
avoid catastrophic forgetting. The advantages of hypothesis-driven replay over
image pixel replay and generative replay are two-fold. First, hypothesis-based
knowledge consolidation avoids redundant information in the image pixel space
and makes memory usage more efficient. Second, hypotheses in the augmented
memory can be re-used for learning new tasks, improving generalization and
transfer learning ability. We evaluated our method on three stream learning
object recognition datasets. Our method performs comparably well or better than
SOTA methods, while offering more efficient memory usage. All source code and
data are publicly available https://github.com/kreimanlab/AugMem.
- Abstract(参考訳): ストリーム学習とは、データを何度も渡さずに、データの連続的なストリームを通じて知識を取得し、転送する能力を指す。
破滅的な忘れ方を避ける一般的な方法は、画像ピクセルとして保存された古い例のリプレイや生成モデルによって再生された新しい例を散在させることである。
本稿では,画像分類タスクにおけるストリーム学習について考察し,従来の知識を拡張メモリに限られた数の仮説で効率的に統合し,関連する仮説を再現し,破滅的忘れを避けるための新しい仮説駆動記憶ネットワークを提案する。
イメージピクセルリプレイと生成リプレイによる仮説駆動リプレイの利点は2つある。
まず、仮説に基づく知識統合は画像画素空間の冗長な情報を避け、メモリ使用効率を向上させる。
第二に、拡張メモリの仮説を新しいタスクを学習し、一般化と転送学習能力を改善するために再使用することができる。
提案手法を3つのストリーム学習オブジェクト認識データセットで評価した。
本手法は,より効率的なメモリ使用量を提供しながら,SOTA法よりも優れた性能を発揮する。
すべてのソースコードとデータはhttps://github.com/kreimanlab/AugMem.comで公開されている。
関連論文リスト
- Look At Me, No Replay! SurpriseNet: Anomaly Detection Inspired Class
Incremental Learning [14.529164755845688]
継続的学習は、一連のタスクに関するインクリメンタルトレーニングを通じて、知識とスキルを蓄積可能な、人工知能ニューラルネットワークを作成することを目的としている。
継続的な学習の主な課題は破滅的な干渉であり、そこでは新たな知識が過去の知識を覆い、あるいは干渉し、忘れてしまう。
提案手法であるSurpriseNetは,パラメータ分離法と,異常検出にインスパイアされたオートエンコーダを用いたクロスタスク知識の学習により,破滅的な干渉に対処する。
論文 参考訳(メタデータ) (2023-10-30T22:16:26Z) - Just a Glimpse: Rethinking Temporal Information for Video Continual
Learning [58.7097258722291]
個別フレームと単一フレームに基づく効果的なビデオ連続学習のための新しい再生機構を提案する。
極端な記憶の制約の下では、ビデオの多様性は時間的情報よりも重要な役割を果たす。
提案手法は最先端性能を実現し,従来の最先端性能を最大21.49%向上させる。
論文 参考訳(メタデータ) (2023-05-28T19:14:25Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - Improving Computational Efficiency in Visual Reinforcement Learning via
Stored Embeddings [89.63764845984076]
効率的な強化学習のためのストアド埋め込み(SEER)について紹介します。
SEERは、既存の非政治深層強化学習方法の簡単な修正です。
計算とメモリを大幅に節約しながら、SEERがRLizableエージェントのパフォーマンスを低下させないことを示します。
論文 参考訳(メタデータ) (2021-03-04T08:14:10Z) - EEC: Learning to Encode and Regenerate Images for Continual Learning [9.89901717499058]
Neural Style Transferで自動エンコーダをトレーニングし、画像をエンコードおよび保存します。
エンコードされたエピソードの再構成画像は 破滅的な忘れ物を避けるために 再生される。
本手法は,ベンチマークデータセットにおける最先端手法よりも分類精度を13~17%向上させる。
論文 参考訳(メタデータ) (2021-01-13T06:43:10Z) - Knowledge Capture and Replay for Continual Learning [0.4980584790669266]
ネットワークをエンコードした知識を捕捉する視覚表現であるemフラッシュカードを紹介します。
継続的な学習シナリオでは、フラッシュカードは以前のすべてのタスクの知識を忘れることや統合することを防ぐのに役立ちます。
学習知識表現の獲得におけるフラッシュカードの有効性(元のデータセットの代替として)を実証し,様々な連続的な学習課題を実証的に検証した。
論文 参考訳(メタデータ) (2020-12-12T11:24:45Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z) - Storing Encoded Episodes as Concepts for Continual Learning [22.387008072671005]
継続的な学習アプローチで直面する2つの大きな課題は、データの保存における破滅的な忘れとメモリ制限である。
本稿では,ニューラルスタイルトランスファーを用いたオートエンコーダを訓練し,画像のエンコードと保存を行う,認知にインスパイアされたアプローチを提案する。
ベンチマークデータセットの最先端手法に比べて,分類精度は13~17%向上し,ストレージスペースは78%削減した。
論文 参考訳(メタデータ) (2020-06-26T04:15:56Z) - Neural Sparse Representation for Image Restoration [116.72107034624344]
スパース符号化に基づく画像復元モデルの堅牢性と効率に触発され,深部ネットワークにおけるニューロンの空間性について検討した。
本手法は,隠れたニューロンに対する空間的制約を構造的に強制する。
実験により、複数の画像復元タスクのためのディープニューラルネットワークではスパース表現が不可欠であることが示されている。
論文 参考訳(メタデータ) (2020-06-08T05:15:17Z) - Encoding-based Memory Modules for Recurrent Neural Networks [79.42778415729475]
本稿では,リカレントニューラルネットワークの設計とトレーニングの観点から,記憶サブタスクについて考察する。
本稿では,線形オートエンコーダを組み込んだエンコーディングベースのメモリコンポーネントを特徴とする新しいモデルであるLinear Memory Networkを提案する。
論文 参考訳(メタデータ) (2020-01-31T11:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。