論文の概要: Don't Look Back in Anger: MAGIC Net for Streaming Continual Learning with Temporal Dependence
- arxiv url: http://arxiv.org/abs/2603.08600v1
- Date: Mon, 09 Mar 2026 16:49:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:16.505342
- Title: Don't Look Back in Anger: MAGIC Net for Streaming Continual Learning with Temporal Dependence
- Title(参考訳): anger を振り返るな - 時間依存による継続的学習をストリーミングする MAGIC Net
- Authors: Federico Giannini, Sandro D'Andrea, Emanuele Della Valle,
- Abstract要約: 我々は、繰り返しニューラルネットワークとアーキテクチャ戦略を統合して時間依存をテーム化する、新しいストリーミング連続学習(SCL)アプローチであるMAGIC Netを紹介する。
MAGIC Netは継続的に学習し、冷凍重量の上に学習可能なマスクを適用することで過去の知識を振り返り、必要に応じてアーキテクチャを拡張する。
合成および実世界のストリームの実験では、新しい概念への適応を改善し、メモリ使用を制限し、忘れを軽減している。
- 参考スコア(独自算出の注目度): 1.2191215203827384
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Concept drift, temporal dependence, and catastrophic forgetting represent major challenges when learning from data streams. While Streaming Machine Learning and Continual Learning (CL) address these issues separately, recent efforts in Streaming Continual Learning (SCL) aim to unify them. In this work, we introduce MAGIC Net, a novel SCL approach that integrates CL-inspired architectural strategies with recurrent neural networks to tame temporal dependence. MAGIC Net continuously learns, looks back at past knowledge by applying learnable masks over frozen weights, and expands its architecture when necessary. It performs all operations online, ensuring inference availability at all times. Experiments on synthetic and real-world streams show that it improves adaptation to new concepts, limits memory usage, and mitigates forgetting.
- Abstract(参考訳): 概念の漂流、時間的依存、破滅的な忘れは、データストリームから学ぶ際の大きな課題である。
Streaming Machine Learning and Continual Learning (CL)はこれらの問題を個別に扱うが、Streaming Continual Learning (SCL)の最近の取り組みはそれらを統一することを目指している。
本研究では,CLにインスパイアされたアーキテクチャ戦略と繰り返しニューラルネットワークを統合した新しいSCLアプローチであるMAGIC Netを紹介する。
MAGIC Netは継続的に学習し、冷凍重量の上に学習可能なマスクを適用することで過去の知識を振り返り、必要に応じてアーキテクチャを拡張する。
すべての操作をオンラインで実行し、常に推論の可用性を保証する。
合成および実世界のストリームの実験では、新しい概念への適応を改善し、メモリ使用を制限し、忘れを軽減している。
関連論文リスト
- A Practical Guide to Streaming Continual Learning [53.995807801604506]
連続学習(CL)とストリーミング機械学習(Streaming Machine Learning)は、非定常データのストリームからエージェントが学習する能力を研究する。
類似点もいくつかあるが、それらは異なる相補的な課題に対処している。
実世界の問題に対する統一的な解決策を提供する新興パラダイムであるストリーミング連続学習(SCL)について論じる。
論文 参考訳(メタデータ) (2026-03-02T10:06:34Z) - Towards Better De-raining Generalization via Rainy Characteristics Memorization and Replay [74.54047495424618]
現在の画像のデライニング方法は、主に限られたデータセットから学習する。
ネットワークが段階的にデライニングの知識基盤を拡大することを可能にする新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2025-06-03T05:50:00Z) - Neuro-mimetic Task-free Unsupervised Online Learning with Continual
Self-Organizing Maps [56.827895559823126]
自己組織化マップ(英: Self-organizing map、SOM)は、クラスタリングや次元減少によく用いられるニューラルネットワークモデルである。
低メモリ予算下でのオンライン教師なし学習が可能なSOM(連続SOM)の一般化を提案する。
MNIST, Kuzushiji-MNIST, Fashion-MNISTなどのベンチマークでは, ほぼ2倍の精度が得られた。
論文 参考訳(メタデータ) (2024-02-19T19:11:22Z) - Metalearning Continual Learning Algorithms [42.710124929514066]
本稿では,自己参照型ニューラルネットワークを連続的(メタ)学習アルゴリズムに学習するために,ACL(Automated Continual Learning)を提案する。
ACLは、継続学習(CL)デシダラタ(古いタスクと新しいタスクの両方で優れたパフォーマンス)をメタラーニング目標にエンコードする。
我々の実験は、ACLが「コンテキスト内破滅的忘れ」を効果的に解決することを示した。
論文 参考訳(メタデータ) (2023-12-01T01:25:04Z) - Learning Fast and Slow for Online Time Series Forecasting [76.50127663309604]
Fast and Slow Learning Networks (FSNet)は、オンライン時系列予測のための総合的なフレームワークである。
FSNetは、最近の変更への迅速な適応と、同様の古い知識の取得のバランスを取る。
私たちのコードは公開されます。
論文 参考訳(メタデータ) (2022-02-23T18:23:07Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Online Continual Learning on Sequences [9.603184477806954]
オンライン連続学習(オンライン連続学習、英: Online Continuousal Learning、OCL)とは、トレーニングサンプルを再考することなく、連続したデータストリームから時間とともに学習できるシステムである。
OCLに対処する機械学習モデルは、新しい入力ストリームから学習する際に、隠れた表現が破壊されるか、完全に上書きされるような、テキスト触媒的忘れを軽減する必要がある。
論文 参考訳(メタデータ) (2020-03-20T05:49:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。