論文の概要: Tuned Compositional Feature Replays for Efficient Stream Learning
- arxiv url: http://arxiv.org/abs/2104.02206v8
- Date: Tue, 2 Jan 2024 16:12:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 20:33:36.076087
- Title: Tuned Compositional Feature Replays for Efficient Stream Learning
- Title(参考訳): 効率的なストリーム学習のための調律合成特徴リプレイ
- Authors: Morgan B. Talbot, Rushikesh Zawar, Rohil Badkundri, Mengmi Zhang,
Gabriel Kreiman
- Abstract要約: メモリブロックを用いた連続学習アルゴリズムCRUMBを提案する。
CRUMBは、ジェネリック部分を組み合わせることで再構成された特徴マップを再生することで、忘れを緩和する。
私たちは、CRUMBと競合する13の手法を7つの挑戦的データセットでストレステストしました。
- 参考スコア(独自算出の注目度): 11.697781095636147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our brains extract durable, generalizable knowledge from transient
experiences of the world. Artificial neural networks come nowhere close to this
ability. When tasked with learning to classify objects by training on
non-repeating video frames in temporal order (online stream learning), models
that learn well from shuffled datasets catastrophically forget old knowledge
upon learning new stimuli. We propose a new continual learning algorithm,
Compositional Replay Using Memory Blocks (CRUMB), which mitigates forgetting by
replaying feature maps reconstructed by combining generic parts. CRUMB
concatenates trainable and re-usable "memory block" vectors to compositionally
reconstruct feature map tensors in convolutional neural networks. Storing the
indices of memory blocks used to reconstruct new stimuli enables memories of
the stimuli to be replayed during later tasks. This reconstruction mechanism
also primes the neural network to minimize catastrophic forgetting by biasing
it towards attending to information about object shapes more than information
about image textures, and stabilizes the network during stream learning by
providing a shared feature-level basis for all training examples. These
properties allow CRUMB to outperform an otherwise identical algorithm that
stores and replays raw images, while occupying only 3.6% as much memory. We
stress-tested CRUMB alongside 13 competing methods on 7 challenging datasets.
To address the limited number of existing online stream learning datasets, we
introduce 2 new benchmarks by adapting existing datasets for stream learning.
With only 3.7-4.1% as much memory and 15-43% as much runtime, CRUMB mitigates
catastrophic forgetting more effectively than the state-of-the-art. Our code is
available at https://github.com/MorganBDT/crumb.git.
- Abstract(参考訳): 私たちの脳は、世界の過渡的な経験から耐久性があり、一般化可能な知識を抽出します。
ニューラルネットワークは、この能力に近づかない。
非繰り返しビデオフレームを時間順(オンラインストリーム学習)にトレーニングすることでオブジェクトを分類する学習を行うと、シャッフルデータセットからよく学習するモデルは、新しい刺激を学ぶ際に古い知識を破滅的に忘れてしまう。
汎用部品を組み合わせることで再構成された特徴マップを再生することで、忘れを軽減できる新しい連続学習アルゴリズムであるCRUMB(Composeal Replay Using Memory Blocks)を提案する。
CRUMBはトレーニング可能で再利用可能な「メモリブロック」ベクターを結合し、畳み込みニューラルネットワークで特徴地図テンソルを合成再構成する。
新しい刺激を再構築するために使われる記憶ブロックのインデックスを保存することで、後のタスク中に刺激の記憶を再生することができる。
この再構築機構はまた、画像テクスチャに関する情報よりも物体形状に関する情報にバイアスを掛けて破滅的な忘れを最小化し、すべてのトレーニング例の共有機能レベルベースを提供することで、ストリーム学習中のネットワークを安定化する。
これらの特性により、CRUMBは生画像の保存と再生を行うアルゴリズムよりも優れ、メモリの3.6%しか占めていない。
7つのチャレンジデータセットで13の競合メソッドとともにcrumbをストレステストした。
既存のオンラインストリーム学習データセットの限られた数に対処するために,既存のデータセットをストリーム学習に適応させることで,新たなベンチマークを2つ導入する。
3.7-4.1%のメモリと15-43%のランタイムで、crumbは最先端よりも壊滅的な忘れを効果的に緩和する。
私たちのコードはhttps://github.com/morganbdt/crumb.gitで入手できる。
関連論文リスト
- Look At Me, No Replay! SurpriseNet: Anomaly Detection Inspired Class
Incremental Learning [14.529164755845688]
継続的学習は、一連のタスクに関するインクリメンタルトレーニングを通じて、知識とスキルを蓄積可能な、人工知能ニューラルネットワークを作成することを目的としている。
継続的な学習の主な課題は破滅的な干渉であり、そこでは新たな知識が過去の知識を覆い、あるいは干渉し、忘れてしまう。
提案手法であるSurpriseNetは,パラメータ分離法と,異常検出にインスパイアされたオートエンコーダを用いたクロスタスク知識の学習により,破滅的な干渉に対処する。
論文 参考訳(メタデータ) (2023-10-30T22:16:26Z) - Just a Glimpse: Rethinking Temporal Information for Video Continual
Learning [58.7097258722291]
個別フレームと単一フレームに基づく効果的なビデオ連続学習のための新しい再生機構を提案する。
極端な記憶の制約の下では、ビデオの多様性は時間的情報よりも重要な役割を果たす。
提案手法は最先端性能を実現し,従来の最先端性能を最大21.49%向上させる。
論文 参考訳(メタデータ) (2023-05-28T19:14:25Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - Improving Computational Efficiency in Visual Reinforcement Learning via
Stored Embeddings [89.63764845984076]
効率的な強化学習のためのストアド埋め込み(SEER)について紹介します。
SEERは、既存の非政治深層強化学習方法の簡単な修正です。
計算とメモリを大幅に節約しながら、SEERがRLizableエージェントのパフォーマンスを低下させないことを示します。
論文 参考訳(メタデータ) (2021-03-04T08:14:10Z) - EEC: Learning to Encode and Regenerate Images for Continual Learning [9.89901717499058]
Neural Style Transferで自動エンコーダをトレーニングし、画像をエンコードおよび保存します。
エンコードされたエピソードの再構成画像は 破滅的な忘れ物を避けるために 再生される。
本手法は,ベンチマークデータセットにおける最先端手法よりも分類精度を13~17%向上させる。
論文 参考訳(メタデータ) (2021-01-13T06:43:10Z) - Knowledge Capture and Replay for Continual Learning [0.4980584790669266]
ネットワークをエンコードした知識を捕捉する視覚表現であるemフラッシュカードを紹介します。
継続的な学習シナリオでは、フラッシュカードは以前のすべてのタスクの知識を忘れることや統合することを防ぐのに役立ちます。
学習知識表現の獲得におけるフラッシュカードの有効性(元のデータセットの代替として)を実証し,様々な連続的な学習課題を実証的に検証した。
論文 参考訳(メタデータ) (2020-12-12T11:24:45Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z) - Storing Encoded Episodes as Concepts for Continual Learning [22.387008072671005]
継続的な学習アプローチで直面する2つの大きな課題は、データの保存における破滅的な忘れとメモリ制限である。
本稿では,ニューラルスタイルトランスファーを用いたオートエンコーダを訓練し,画像のエンコードと保存を行う,認知にインスパイアされたアプローチを提案する。
ベンチマークデータセットの最先端手法に比べて,分類精度は13~17%向上し,ストレージスペースは78%削減した。
論文 参考訳(メタデータ) (2020-06-26T04:15:56Z) - Neural Sparse Representation for Image Restoration [116.72107034624344]
スパース符号化に基づく画像復元モデルの堅牢性と効率に触発され,深部ネットワークにおけるニューロンの空間性について検討した。
本手法は,隠れたニューロンに対する空間的制約を構造的に強制する。
実験により、複数の画像復元タスクのためのディープニューラルネットワークではスパース表現が不可欠であることが示されている。
論文 参考訳(メタデータ) (2020-06-08T05:15:17Z) - Encoding-based Memory Modules for Recurrent Neural Networks [79.42778415729475]
本稿では,リカレントニューラルネットワークの設計とトレーニングの観点から,記憶サブタスクについて考察する。
本稿では,線形オートエンコーダを組み込んだエンコーディングベースのメモリコンポーネントを特徴とする新しいモデルであるLinear Memory Networkを提案する。
論文 参考訳(メタデータ) (2020-01-31T11:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。