論文の概要: Streaming Continual Learning for Unified Adaptive Intelligence in Dynamic Environments
- arxiv url: http://arxiv.org/abs/2603.01695v1
- Date: Mon, 02 Mar 2026 10:24:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.812475
- Title: Streaming Continual Learning for Unified Adaptive Intelligence in Dynamic Environments
- Title(参考訳): 動的環境における統一適応知能のためのストリーミング連続学習
- Authors: Federico Giannini, Giacomo Ziffer, Andrea Cossu, Vincenzo Lomonaco,
- Abstract要約: 継続的学習(CL)とストリーミング機械学習(Streaming Machine Learning)は、この困難な課題に対処する2つの研究分野である。
CLとStreaming Continual Learningの両方の利点を利用する統一的な設定を提案しました。
- 参考スコア(独自算出の注目度): 5.713812353511933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Developing effective predictive models becomes challenging in dynamic environments that continuously produce data and constantly change. Continual Learning (CL) and Streaming Machine Learning (SML) are two research areas that tackle this arduous task. We put forward a unified setting that harnesses the benefits of both CL and SML: their ability to quickly adapt to non-stationary data streams without forgetting previous knowledge. We refer to this setting as Streaming Continual Learning (SCL). SCL does not replace either CL or SML. Instead, it extends the techniques and approaches considered by both fields. We start by briefly describing CL and SML and unifying the languages of the two frameworks. We then present the key features of SCL. We finally highlight the importance of bridging the two communities to advance the field of intelligent systems.
- Abstract(参考訳): 効果的な予測モデルの開発は、データを継続的に生成し、常に変化し続ける動的環境において困難になる。
継続的学習(CL)とストリーミング機械学習(SML)は、この困難な課題に対処する2つの研究分野である。
CLとSMLの両方の利点を利用する統一的な設定を提案しました。
この設定をストリーミング連続学習(Streaming Continual Learning, SCL)と呼ぶ。
SCLはCLやSMLを置き換えるものではない。
代わりに、両方の分野が考慮するテクニックとアプローチを拡張する。
まずCLとSMLを簡潔に記述し、2つのフレームワークの言語を統合することから始めます。
次に、SCLの重要な特徴を示す。
最終的に、知的システムの分野を前進させるために、2つのコミュニティをブリッジすることの重要性を強調します。
関連論文リスト
- A Practical Guide to Streaming Continual Learning [53.995807801604506]
連続学習(CL)とストリーミング機械学習(Streaming Machine Learning)は、非定常データのストリームからエージェントが学習する能力を研究する。
類似点もいくつかあるが、それらは異なる相補的な課題に対処している。
実世界の問題に対する統一的な解決策を提供する新興パラダイムであるストリーミング連続学習(SCL)について論じる。
論文 参考訳(メタデータ) (2026-03-02T10:06:34Z) - LibContinual: A Comprehensive Library towards Realistic Continual Learning [62.34449396069085]
継続的学習(CL)における根本的な課題は破滅的な忘れ込みであり、新しいタスクに適応することで、以前のタスクのパフォーマンスが低下する。
現実的なCLの基礎となるプラットフォームとして設計された,包括的で再現可能なライブラリであるLibContinualを提案する。
論文 参考訳(メタデータ) (2025-12-26T13:59:13Z) - Bridging Streaming Continual Learning via In-Context Large Tabular Models [37.26465083968656]
大規模インコンテキストモデル(LTM)がストリーミング連続学習(SCL)に自然な橋渡しを提供すると主張する。
私たちの見解では、ストリームをオンザフライで要約して、LTMで消費できるコンパクトなスケッチにする必要があります。
SLとCLのコミュニティは,可塑性と安定性の緊張を管理するための分断型戦略を暗黙的に採用している。
論文 参考訳(メタデータ) (2025-12-12T15:47:26Z) - Unlocking In-Context Learning for Natural Datasets Beyond Language Modelling [33.66383220833958]
大規模言語モデル(LLM)は文脈学習(ICL)を示す
ICLは、モデルの重みを更新することなく、コンテキストで提供される例のみを条件に新しいタスクを実行することができる。
論文 参考訳(メタデータ) (2025-01-09T09:45:05Z) - In-context Continual Learning Assisted by an External Continual Learner [19.382196203113836]
既存の継続学習(CL)手法は、大規模言語モデル(LLM)の微調整や適応に頼っている。
InCAは、外部連続学習者(ECL)をICLと統合し、CFなしでスケーラブルなCLを実現する新しいアプローチである。
論文 参考訳(メタデータ) (2024-12-20T04:44:41Z) - Adapter-Enhanced Semantic Prompting for Continual Learning [91.63494614012362]
継続学習(CL)は、モデルが進化するデータストリームに適応できるようにする。
従来のメソッドは通常、再生のために過去のデータを保持したり、新しい知識を学ぶためにモデルに追加のブランチを追加したりします。
本稿では,プロンプトチューニングとアダプタ技術を統合した軽量CLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-15T06:14:55Z) - Investigating the Pre-Training Dynamics of In-Context Learning: Task Recognition vs. Task Learning [99.05401042153214]
In-context Learning(ICL)は、タスク認識(TR)とタスク学習(TL)の2つの主要な能力に起因する可能性がある。
ICLの出現の事前学習のダイナミクスを調べることで、第一歩を踏み出す。
そこで本研究では,この2つの機能を推論時によりよく統合するための,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-06-20T06:37:47Z) - CoLeCLIP: Open-Domain Continual Learning via Joint Task Prompt and Vocabulary Learning [38.063942750061585]
本稿では,CLIPに基づくオープンドメインCLモデルを学習する新しいアプローチであるCoLeCLIPを紹介する。
CoLeCLIPは、タスクとクラスインクリメンタルな学習設定の両方で、オープンドメインCLの最先端メソッドよりも優れています。
論文 参考訳(メタデータ) (2024-03-15T12:28:21Z) - SAPT: A Shared Attention Framework for Parameter-Efficient Continual Learning of Large Language Models [71.78800549517298]
大規模言語モデル(LLM)を動的世界に展開するには,継続的な学習(CL)能力が不可欠である。
既存の方法は、パラメータ効率チューニング(PET)ブロックを用いてタスク固有の知識を取得するための学習モジュールと、テスト入力に対して対応するものを選択するための選択モジュールを考案する。
本稿では,共有注意学習と選択モジュールを通じてPET学習と選択を調整するための新しい共有注意フレームワーク(SAPT)を提案する。
論文 参考訳(メタデータ) (2024-01-16T11:45:03Z) - Label Words are Anchors: An Information Flow Perspective for
Understanding In-Context Learning [77.7070536959126]
大規模言語モデル(LLM)の有望な能力としてインコンテキスト学習(ICL)が出現する
本稿では,情報フローレンズを用いたICLの動作機構について検討する。
本稿では,ICL性能向上のためのアンカー再重み付け手法,推論の高速化のための実演圧縮手法,GPT2-XLにおけるICLエラーの診断のための解析フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-23T15:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。