論文の概要: Tuned Compositional Feature Replays for Efficient Stream Learning
- arxiv url: http://arxiv.org/abs/2104.02206v7
- Date: Wed, 25 Oct 2023 21:51:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-28 07:27:08.439717
- Title: Tuned Compositional Feature Replays for Efficient Stream Learning
- Title(参考訳): 効率的なストリーム学習のための調律合成特徴リプレイ
- Authors: Morgan B. Talbot, Rushikesh Zawar, Rohil Badkundri, Mengmi Zhang,
Gabriel Kreiman
- Abstract要約: 本稿では,ジェネリック部分の再結合によって再構成された特徴マップを再生することで,忘れを緩和するアルゴリズムを提案する。
CRUMBは、新しい刺激を再構築するために使われるメモリブロックのインデックスを格納し、後続のタスク中に特定のメモリの再生を可能にする。
メモリの約4%、ベクターの約30%のCRUMBランタイムは、以前の最先端よりも効果的に破滅的だ。
- 参考スコア(独自算出の注目度): 11.697781095636147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our brains extract durable, generalizable knowledge from transient
experiences of the world. Artificial neural networks come nowhere close: when
tasked with learning to classify objects by training on non-repeating video
frames in temporal order (online stream learning), models that learn well from
shuffled datasets catastrophically forget old knowledge upon learning new
stimuli. We propose a new continual learning algorithm, Compositional Replay
Using Memory Blocks (CRUMB), which mitigates forgetting by replaying feature
maps reconstructed by recombining generic parts. CRUMB concatenates trainable
and re-usable "memory block" vectors to compositionally reconstruct feature map
tensors in convolutional neural networks, like crumbs forming a loaf of bread.
CRUMB stores the indices of memory blocks used to reconstruct new stimuli,
enabling replay of specific memories during later tasks. This reconstruction
mechanism also primes the neural network to minimize catastrophic forgetting by
forcing it to attend to information about object shapes more than information
about image textures, and stabilizes the network during stream learning by
providing a shared feature-level basis for all training examples. These
properties allow CRUMB to outperform an otherwise identical algorithm that
stores and replays raw images while occupying only 3.6% as much memory. We
stress-tested CRUMB alongside 13 competing methods on 7 challenging datasets.
To address the limited number of existing online stream learning datasets, we
introduce 2 new benchmarks by adapting existing datasets for stream learning.
With about 4% as much memory and 30% as much runtime, CRUMB mitigates
catastrophic forgetting more effectively than the prior state-of-the-art. Our
code is available on GitHub at https://github.com/MorganBDT/crumb.
- Abstract(参考訳): 私たちの脳は、世界の過渡的な経験から耐久性があり、一般化可能な知識を抽出します。
オンラインストリーム学習(オンラインストリーム学習)で非繰り返しビデオフレームをトレーニングすることでオブジェクトを分類する学習を行う場合、シャッフルデータセットからよく学習するモデルは、新しい刺激を学ぶ際に、古い知識を破滅的に忘れてしまう。
本稿では,CRUMBを用いた連続学習アルゴリズムを提案する。CRUMBは,ジェネリック部分の再結合によって再構成された特徴マップを再生することで,忘れを緩和する。
CRUMBは訓練可能で再利用可能な「メモリブロック」ベクターを結合し、畳み込みニューラルネットワークのフィーチャーマップテンソルを合成再構成する。
CRUMBは、新しい刺激を再構築するために使われるメモリブロックのインデックスを格納し、後続のタスク中に特定のメモリの再生を可能にする。
この再構築メカニズムはまた、画像テクスチャに関する情報以上のオブジェクト形状に関する情報を強制的に提示することにより、破滅的な忘れを最小化するためにニューラルネットワークを助長し、すべてのトレーニング例に共有機能レベルベースを提供することで、ストリーム学習中のネットワークを安定化する。
これらの特性により、CRUMBは、メモリの3.6%しか占有せず、生画像の保存と再生を全く同じアルゴリズムより優れている。
7つのチャレンジデータセットで13の競合メソッドとともにcrumbをストレステストした。
既存のオンラインストリーム学習データセットの限られた数に対処するために,既存のデータセットをストリーム学習に適応させることで,新たなベンチマークを2つ導入する。
メモリの約4%、ランタイムの約30%のCRUMBは、それまでの最先端よりも効果的に、破滅的な忘れを省く。
コードはgithubのhttps://github.com/morganbdt/crumbで入手できます。
関連論文リスト
- Look At Me, No Replay! SurpriseNet: Anomaly Detection Inspired Class
Incremental Learning [14.529164755845688]
継続的学習は、一連のタスクに関するインクリメンタルトレーニングを通じて、知識とスキルを蓄積可能な、人工知能ニューラルネットワークを作成することを目的としている。
継続的な学習の主な課題は破滅的な干渉であり、そこでは新たな知識が過去の知識を覆い、あるいは干渉し、忘れてしまう。
提案手法であるSurpriseNetは,パラメータ分離法と,異常検出にインスパイアされたオートエンコーダを用いたクロスタスク知識の学習により,破滅的な干渉に対処する。
論文 参考訳(メタデータ) (2023-10-30T22:16:26Z) - Just a Glimpse: Rethinking Temporal Information for Video Continual
Learning [58.7097258722291]
個別フレームと単一フレームに基づく効果的なビデオ連続学習のための新しい再生機構を提案する。
極端な記憶の制約の下では、ビデオの多様性は時間的情報よりも重要な役割を果たす。
提案手法は最先端性能を実現し,従来の最先端性能を最大21.49%向上させる。
論文 参考訳(メタデータ) (2023-05-28T19:14:25Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - Improving Computational Efficiency in Visual Reinforcement Learning via
Stored Embeddings [89.63764845984076]
効率的な強化学習のためのストアド埋め込み(SEER)について紹介します。
SEERは、既存の非政治深層強化学習方法の簡単な修正です。
計算とメモリを大幅に節約しながら、SEERがRLizableエージェントのパフォーマンスを低下させないことを示します。
論文 参考訳(メタデータ) (2021-03-04T08:14:10Z) - EEC: Learning to Encode and Regenerate Images for Continual Learning [9.89901717499058]
Neural Style Transferで自動エンコーダをトレーニングし、画像をエンコードおよび保存します。
エンコードされたエピソードの再構成画像は 破滅的な忘れ物を避けるために 再生される。
本手法は,ベンチマークデータセットにおける最先端手法よりも分類精度を13~17%向上させる。
論文 参考訳(メタデータ) (2021-01-13T06:43:10Z) - Knowledge Capture and Replay for Continual Learning [0.4980584790669266]
ネットワークをエンコードした知識を捕捉する視覚表現であるemフラッシュカードを紹介します。
継続的な学習シナリオでは、フラッシュカードは以前のすべてのタスクの知識を忘れることや統合することを防ぐのに役立ちます。
学習知識表現の獲得におけるフラッシュカードの有効性(元のデータセットの代替として)を実証し,様々な連続的な学習課題を実証的に検証した。
論文 参考訳(メタデータ) (2020-12-12T11:24:45Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z) - Storing Encoded Episodes as Concepts for Continual Learning [22.387008072671005]
継続的な学習アプローチで直面する2つの大きな課題は、データの保存における破滅的な忘れとメモリ制限である。
本稿では,ニューラルスタイルトランスファーを用いたオートエンコーダを訓練し,画像のエンコードと保存を行う,認知にインスパイアされたアプローチを提案する。
ベンチマークデータセットの最先端手法に比べて,分類精度は13~17%向上し,ストレージスペースは78%削減した。
論文 参考訳(メタデータ) (2020-06-26T04:15:56Z) - Neural Sparse Representation for Image Restoration [116.72107034624344]
スパース符号化に基づく画像復元モデルの堅牢性と効率に触発され,深部ネットワークにおけるニューロンの空間性について検討した。
本手法は,隠れたニューロンに対する空間的制約を構造的に強制する。
実験により、複数の画像復元タスクのためのディープニューラルネットワークではスパース表現が不可欠であることが示されている。
論文 参考訳(メタデータ) (2020-06-08T05:15:17Z) - Encoding-based Memory Modules for Recurrent Neural Networks [79.42778415729475]
本稿では,リカレントニューラルネットワークの設計とトレーニングの観点から,記憶サブタスクについて考察する。
本稿では,線形オートエンコーダを組み込んだエンコーディングベースのメモリコンポーネントを特徴とする新しいモデルであるLinear Memory Networkを提案する。
論文 参考訳(メタデータ) (2020-01-31T11:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。