論文の概要: A Practical Guide to Streaming Continual Learning
- arxiv url: http://arxiv.org/abs/2603.01677v1
- Date: Mon, 02 Mar 2026 10:06:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.801891
- Title: A Practical Guide to Streaming Continual Learning
- Title(参考訳): 継続的な学習をストリーミングする実践的ガイド
- Authors: Andrea Cossu, Federico Giannini, Giacomo Ziffer, Alessio Bernardo, Alexander Gepperth, Emanuele Della Valle, Barbara Hammer, Davide Bacciu,
- Abstract要約: 連続学習(CL)とストリーミング機械学習(Streaming Machine Learning)は、非定常データのストリームからエージェントが学習する能力を研究する。
類似点もいくつかあるが、それらは異なる相補的な課題に対処している。
実世界の問題に対する統一的な解決策を提供する新興パラダイムであるストリーミング連続学習(SCL)について論じる。
- 参考スコア(独自算出の注目度): 53.995807801604506
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual Learning (CL) and Streaming Machine Learning (SML) study the ability of agents to learn from a stream of non-stationary data. Despite sharing some similarities, they address different and complementary challenges. While SML focuses on rapid adaptation after changes (concept drifts), CL aims to retain past knowledge when learning new tasks. After a brief introduction to CL and SML, we discuss Streaming Continual Learning (SCL), an emerging paradigm providing a unifying solution to real-world problems, which may require both SML and CL abilities. We claim that SCL can i) connect the CL and SML communities, motivating their work towards the same goal, and ii) foster the design of hybrid approaches that can quickly adapt to new information (as in SML) without forgetting previous knowledge (as in CL). We conclude the paper with a motivating example and a set of experiments, highlighting the need for SCL by showing how CL and SML alone struggle in achieving rapid adaptation and knowledge retention.
- Abstract(参考訳): 連続学習(CL)とストリーミング機械学習(SML)は、非定常データのストリームからエージェントが学習する能力を研究する。
類似点もいくつかあるが、それらは異なる相補的な課題に対処している。
SMLは変化後の迅速な適応(コンセプトドリフト)に焦点を当てているが、CLは新しいタスクを学ぶ際に過去の知識を維持することを目的としている。
CLとSMLの簡単な紹介の後、SMLとCLの両方の能力を必要とする現実的な問題に対する統一的なソリューションを提供する新興パラダイムであるStreaming Continual Learning(SCL)について論じる。
我々はSCLが可能であると主張する。
一 CLとSMLのコミュニティを結び、同じ目標に向けて活動を進めること。
二 従来の知識(CLなど)を忘れずに(SMLのように)新しい情報に迅速に適応できるハイブリッドアプローチの設計を奨励すること。
本論文は, CLとSMLのみが, 迅速な適応と知識保持にいかに苦労しているかを示すことによって, SCLの必要性を強調し, モチベーションの事例と一連の実験で締めくくった。
関連論文リスト
- Streaming Continual Learning for Unified Adaptive Intelligence in Dynamic Environments [5.713812353511933]
継続的学習(CL)とストリーミング機械学習(Streaming Machine Learning)は、この困難な課題に対処する2つの研究分野である。
CLとStreaming Continual Learningの両方の利点を利用する統一的な設定を提案しました。
論文 参考訳(メタデータ) (2026-03-02T10:24:37Z) - In-context Continual Learning Assisted by an External Continual Learner [19.382196203113836]
既存の継続学習(CL)手法は、大規模言語モデル(LLM)の微調整や適応に頼っている。
InCAは、外部連続学習者(ECL)をICLと統合し、CFなしでスケーラブルなCLを実現する新しいアプローチである。
論文 参考訳(メタデータ) (2024-12-20T04:44:41Z) - Adapter-Enhanced Semantic Prompting for Continual Learning [91.63494614012362]
継続学習(CL)は、モデルが進化するデータストリームに適応できるようにする。
従来のメソッドは通常、再生のために過去のデータを保持したり、新しい知識を学ぶためにモデルに追加のブランチを追加したりします。
本稿では,プロンプトチューニングとアダプタ技術を統合した軽量CLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-15T06:14:55Z) - CLEO: Continual Learning of Evolving Ontologies [12.18795037817058]
継続的な学習(CL)は、知的システムに人間の生涯学習を浸透させることを目的としている。
一般的な学習プロセスは、学習情報だけでなく、既存の情報の洗練にも限界がある。
CLEOは、時間とともに現実の変化に適応するインテリジェントなシステムの必要性によって動機付けられている。
論文 参考訳(メタデータ) (2024-07-11T11:32:33Z) - Link-Context Learning for Multimodal LLMs [40.923816691928536]
リンクコンテキスト学習(LCL)はMLLMの学習能力を高めるために「原因と効果からの推論」を強調する。
LCLは、アナログだけでなく、データポイント間の因果関係も識別するようモデルに導出する。
本手法の評価を容易にするため,ISEKAIデータセットを提案する。
論文 参考訳(メタデータ) (2023-08-15T17:33:24Z) - POP: Prompt Of Prompts for Continual Learning [59.15888651733645]
継続的な学習(CL)は、破滅的な忘れをせずに新しい概念を学習する人間の能力を模倣することを目的としている。
POP学習を用いた基礎モデルでは,古典的なCL手法よりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2023-06-14T02:09:26Z) - A Survey on In-context Learning [77.78614055956365]
In-context Learning (ICL) は自然言語処理(NLP)の新しいパラダイムとして登場した。
まず、ICLの形式的定義を示し、関連する研究との相関を明らかにする。
次に、トレーニング戦略、迅速なデザイン戦略、関連する分析を含む高度なテクニックを組織化し、議論する。
論文 参考訳(メタデータ) (2022-12-31T15:57:09Z) - Beyond Supervised Continual Learning: a Review [69.9674326582747]
連続学習(Continuous Learning, CL)は、定常データ分布の通常の仮定を緩和または省略する機械学習のフレーバーである。
データ分布の変化は、いわゆる破滅的な忘れ(CF)効果、すなわち、過去の知識の突然の喪失を引き起こす可能性がある。
本稿では、CLを他の環境で研究する文献をレビューする。例えば、監督を減らした学習、完全に教師なしの学習、強化学習などである。
論文 参考訳(メタデータ) (2022-08-30T14:44:41Z) - A Survey on Curriculum Learning [48.36129047271622]
Curriculum Learning(CL)は、より簡単なデータからより難しいデータまで、マシンラーニングモデルをトレーニングするトレーニング戦略である。
CL戦略は、使い易いプラグインとして、様々なモデルの一般化能力と収束率を改善する能力を示した。
論文 参考訳(メタデータ) (2020-10-25T17:15:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。