論文の概要: Online Continual Learning Via Candidates Voting
- arxiv url: http://arxiv.org/abs/2110.08855v1
- Date: Sun, 17 Oct 2021 15:45:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 14:31:10.736422
- Title: Online Continual Learning Via Candidates Voting
- Title(参考訳): 候補者投票によるオンライン連続学習
- Authors: Jiangpeng He and Fengqing Zhu
- Abstract要約: クラス増分設定下でのオンライン連続学習に有効でメモリ効率のよい手法を提案する。
提案手法は, CIFAR-10, CIFAR-100, CORE-50など, オンライン連続学習のためのベンチマークデータセットを用いて, 最適な結果を得る。
- 参考スコア(独自算出の注目度): 7.704949298975352
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual learning in online scenario aims to learn a sequence of new tasks
from data stream using each data only once for training, which is more
realistic than in offline mode assuming data from new task are all available.
However, this problem is still under-explored for the challenging
class-incremental setting in which the model classifies all classes seen so far
during inference. Particularly, performance struggles with increased number of
tasks or additional classes to learn for each task. In addition, most existing
methods require storing original data as exemplars for knowledge replay, which
may not be feasible for certain applications with limited memory budget or
privacy concerns. In this work, we introduce an effective and memory-efficient
method for online continual learning under class-incremental setting through
candidates selection from each learned task together with prior incorporation
using stored feature embeddings instead of original data as exemplars. Our
proposed method implemented for image classification task achieves the best
results under different benchmark datasets for online continual learning
including CIFAR-10, CIFAR-100 and CORE-50 while requiring much less memory
resource compared with existing works.
- Abstract(参考訳): オンラインシナリオにおける継続的な学習は、トレーニングのために各データのみを使用して、データストリームから新しいタスクのシーケンスを学習することを目的としている。
しかし、この問題は、モデルが推論中にこれまで見てきたすべてのクラスを分類する、難易度の高いクラスインクリメンタルな設定ではまだ未解決である。
特にパフォーマンスは、各タスクについて学ぶべきタスク数や追加クラスの増加に苦しむ。
加えて、既存のほとんどのメソッドは、知識の再生の例として元のデータを格納する必要があるが、メモリ予算やプライバシー上の懸念がある特定のアプリケーションでは実現できない。
そこで本研究では,各学習課題から候補を選抜し,元のデータを例に代えて保存した特徴埋め込みを前もって導入することで,授業環境下でのオンライン連続学習を効果的かつメモリ効率良く行う手法を提案する。
提案手法は,CIFAR-10, CIFAR-100, CORE-50などのオンライン連続学習用ベンチマークデータセットを用いて, 既存の作業に比べてメモリリソースの削減を図っている。
関連論文リスト
- Adaptive Rentention & Correction for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Dealing with Cross-Task Class Discrimination in Online Continual
Learning [54.31411109376545]
本稿では,クラスインクリメンタルラーニング(CIL)における新たな課題について論じる。
新しいタスクのクラスと古いタスクの間の決定境界を、古いタスクデータへの(あるいは制限された)アクセスなしで設定する方法。
リプレイ方式では、前のタスクから少量のデータ(再生データ)を節約する。現在のタスクデータのバッチが到着すると、システムは、新しいデータとサンプルデータとを共同でトレーニングする。
本稿では,リプレイ手法には動的トレーニングバイアスの問題があり,CTCD問題の解法におけるリプレイデータの有効性を低下させる。
論文 参考訳(メタデータ) (2023-05-24T02:52:30Z) - Reinforced Meta Active Learning [11.913086438671357]
本稿では,データから直接情報提供度を学習する,オンラインストリームに基づくメタアクティブ学習手法を提案する。
本手法は、強化学習に基づいて、エピソードポリシー検索と文脈的バンディットアプローチを組み合わせたものである。
本研究では,本手法が既存の最先端手法よりも効率的にトレーニングサンプルを選択できることを実データで示す。
論文 参考訳(メタデータ) (2022-03-09T08:36:54Z) - Exemplar-free Online Continual Learning [7.800379384628357]
連続学習の目的は、各データが学習者によって一度だけ観察されるという条件の下で、逐次利用可能なデータから新しいタスクを学習することである。
近年の成果は、学習したタスクデータの一部を知識再生の例証として保存することで、目覚ましい成果を上げている。
そこで本研究では,NCM(Nest-class-mean-class-mean)分類器を応用した,新しい例のない手法を提案する。
論文 参考訳(メタデータ) (2022-02-11T08:03:22Z) - vCLIMB: A Novel Video Class Incremental Learning Benchmark [53.90485760679411]
本稿では,ビデオ連続学習ベンチマークvCLIMBを紹介する。
vCLIMBは、ビデオ連続学習における深層モデルの破滅的な忘れを解析するための標準化されたテストベッドである。
本稿では,メモリベース連続学習法に適用可能な時間的整合性正規化を提案する。
論文 参考訳(メタデータ) (2022-01-23T22:14:17Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - Knowledge Consolidation based Class Incremental Online Learning with
Limited Data [41.87919913719975]
本稿では,限定的なデータ環境下での授業段階的なオンライン学習のための新しい手法を提案する。
我々は、破滅的な忘れ込みと過度な適合の問題に悩まされることなく、タスク間で一般化可能な堅牢な表現を学習する。
論文 参考訳(メタデータ) (2021-06-12T15:18:29Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z) - Incremental Learning In Online Scenario [8.885829189810197]
現在の最先端の漸進的な学習手法では、新しいクラスが追加されるたびにモデルをトレーニングするのに長い時間がかかる。
本稿では,挑戦的なオンライン学習シナリオで機能するインクリメンタルラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-30T02:24:26Z) - iTAML: An Incremental Task-Agnostic Meta-learning Approach [123.10294801296926]
人間は経験が成長するにつれて、新しい知識を継続的に学ぶことができる。
ディープニューラルネットワークにおける以前の学習は、新しいタスクでトレーニングされたときにすぐに消えてしまう可能性がある。
遭遇した全てのタスク間の平衡を維持するために,新しいメタラーニング手法を導入する。
論文 参考訳(メタデータ) (2020-03-25T21:42:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。