論文の概要: Improving Plasticity in Online Continual Learning via Collaborative
Learning
- arxiv url: http://arxiv.org/abs/2312.00600v1
- Date: Fri, 1 Dec 2023 14:06:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-04 14:19:09.242844
- Title: Improving Plasticity in Online Continual Learning via Collaborative
Learning
- Title(参考訳): 協調学習によるオンライン連続学習の可塑性向上
- Authors: Maorong Wang, Nicolas Michel, Ling Xiao, Toshihiko Yamasaki
- Abstract要約: 我々は、新しい知識(すなわち、モデル可塑性)を取得するモデルの能力は、オンラインCLにおけるもう一つの課題であると主張している。
我々は、新しい概念を習得する際のモデル能力を改善するために、協調学習に基づく戦略である協調継続学習(CCL)を提案する。
- 参考スコア(独自算出の注目度): 24.692058640897372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online Continual Learning (CL) solves the problem of learning the
ever-emerging new classification tasks from a continuous data stream. Unlike
its offline counterpart, in online CL, the training data can only be seen once.
Most existing online CL research regards catastrophic forgetting (i.e., model
stability) as almost the only challenge. In this paper, we argue that the
model's capability to acquire new knowledge (i.e., model plasticity) is another
challenge in online CL. While replay-based strategies have been shown to be
effective in alleviating catastrophic forgetting, there is a notable gap in
research attention toward improving model plasticity. To this end, we propose
Collaborative Continual Learning (CCL), a collaborative learning based strategy
to improve the model's capability in acquiring new concepts. Additionally, we
introduce Distillation Chain (DC), a novel collaborative learning scheme to
boost the training of the models. We adapted CCL-DC to existing representative
online CL works. Extensive experiments demonstrate that even if the learners
are well-trained with state-of-the-art online CL methods, our strategy can
still improve model plasticity dramatically, and thereby improve the overall
performance by a large margin.
- Abstract(参考訳): online continual learning (cl)は、継続的にデータストリームから新しい分類タスクを絶えず学習する問題を解決する。
オンラインCLのオフライン版とは異なり、トレーニングデータは一度しか見ることができない。
既存のオンラインCL研究の多くは、破滅的な忘れ(すなわちモデル安定性)をほとんど唯一の課題とみなしている。
本稿では,新しい知識(すなわちモデル可塑性)を得るためのモデルの能力は,オンラインclにおけるもう一つの課題であると主張する。
リプレイベースの戦略は破滅的な忘れを和らげるのに有効であることが示されているが、モデル可塑性の改善に向けた研究の注目の差は顕著である。
そこで本研究では,新しい概念獲得におけるモデルの能力を向上させるための協調学習ベースの戦略であるコラボレーティブ・コンチネンタル・ラーニング(ccl)を提案する。
さらに,モデルの学習を促進するための新しい協調学習方式である蒸留連鎖(dc)についても紹介する。
我々は既存の代表的オンラインCL作品にCCL-DCを適用した。
大規模な実験により、学習者が最先端のオンラインCL手法で十分に訓練されているとしても、我々の戦略はモデル可塑性を劇的に改善し、それによって全体の性能を大きく向上させることができることを示した。
関連論文リスト
- Online Prototype Learning for Online Continual Learning [36.91213307667659]
シングルパスデータストリームから連続的に学習する問題について検討する。
古いデータの小さなサブセットを保存することで、リプレイベースのメソッドは有望なパフォーマンスを示している。
本稿では,オンライン学習モデルが,ショートカット学習の新たな視点からうまく一般化できない理由を理解することを目的とする。
論文 参考訳(メタデータ) (2023-08-01T05:46:40Z) - Improving Offline-to-Online Reinforcement Learning with Q-Ensembles [55.47037858773641]
本稿では,Ensemble-based Offline-to-Online (E2O) RLという新しいフレームワークを提案する。
Q-networksの数を増やすことで、オフラインの事前トレーニングとオンラインの微調整を、パフォーマンスを低下させることなくシームレスに橋渡しします。
実験により,E2Oは既存のオフラインRL手法のトレーニング安定性,学習効率,最終性能を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-06-12T05:10:10Z) - Mitigating Forgetting in Online Continual Learning via Contrasting
Semantically Distinct Augmentations [22.289830907729705]
オンライン連続学習(OCL)は、非定常データストリームからモデル学習を可能とし、新たな知識を継続的に獲得し、学習した知識を維持することを目的としている。
主な課題は、"破滅的な忘れる"問題、すなわち、新しい知識を学習しながら学習した知識を十分に記憶できないことにある。
論文 参考訳(メタデータ) (2022-11-10T05:29:43Z) - A Unified Framework for Alternating Offline Model Training and Policy
Learning [62.19209005400561]
オフラインモデルに基づく強化学習では、歴史的収集データから動的モデルを学び、学習モデルと固定データセットを用いてポリシー学習を行う。
提案手法は,本手法が期待するリターンを最小限に抑えるための,反復的なオフラインMBRLフレームワークを開発する。
提案する統一型モデル政治学習フレームワークにより、我々は、広範囲の連続制御オフライン強化学習データセット上での競合性能を実現する。
論文 参考訳(メタデータ) (2022-10-12T04:58:51Z) - Online Continual Learning with Contrastive Vision Transformer [67.72251876181497]
本稿では,オンラインCLの安定性と塑性のトレードオフを改善するために,CVT(Contrastive Vision Transformer)フレームワークを提案する。
具体的には、従来のタスクに関する情報を暗黙的にキャプチャするオンラインCLのための新しい外部アテンション機構を設計する。
学習可能な焦点に基づいて、新しいクラスと過去のクラスの間でのコントラスト学習を再バランスさせ、事前学習した表現を統合化するための焦点コントラスト損失を設計する。
論文 参考訳(メタデータ) (2022-07-24T08:51:02Z) - Don't Stop Learning: Towards Continual Learning for the CLIP Model [21.212839450030838]
Contrastive Language-Image Pre-Training(CLIP)モデルは、最近提案された大規模プレトレインモデルである。
本研究は,CLIPモデルの連続学習問題に関する体系的研究を行う。
筆者らは,CLIPモデルの忘れ問題を軽減するために,VR-LwF (Replayed Vocabulary) を用いた学習学習という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-19T13:03:14Z) - Self-Supervised Models are Continual Learners [79.70541692930108]
本研究では, 自己教師付き損失関数を連続学習のための蒸留機構にシームレスに変換可能であることを示す。
我々は,学習した表現の質を大幅に向上させる連続的自己教師型視覚表現学習の枠組みを考案した。
論文 参考訳(メタデータ) (2021-12-08T10:39:13Z) - Continual Competitive Memory: A Neural System for Online Task-Free
Lifelong Learning [91.3755431537592]
我々は,教師なし学習,連続競合記憶(CCM)の新たな形態を提案する。
結果として得られる神経系は、オンライン連続分類問題において破滅的な忘れと戦う効果的なアプローチを提供する。
提案したCCMシステムは,他の競合学習ニューラルモデルよりも優れるだけでなく,最新かつ最先端の学習アプローチと競合する性能が得られることを実証する。
論文 参考訳(メタデータ) (2021-06-24T20:12:17Z) - A Survey on Curriculum Learning [48.36129047271622]
Curriculum Learning(CL)は、より簡単なデータからより難しいデータまで、マシンラーニングモデルをトレーニングするトレーニング戦略である。
CL戦略は、使い易いプラグインとして、様々なモデルの一般化能力と収束率を改善する能力を示した。
論文 参考訳(メタデータ) (2020-10-25T17:15:04Z) - Incremental Learning In Online Scenario [8.885829189810197]
現在の最先端の漸進的な学習手法では、新しいクラスが追加されるたびにモデルをトレーニングするのに長い時間がかかる。
本稿では,挑戦的なオンライン学習シナリオで機能するインクリメンタルラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-30T02:24:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。