論文の概要: Online Continual Learning in Image Classification: An Empirical Survey
- arxiv url: http://arxiv.org/abs/2101.10423v1
- Date: Mon, 25 Jan 2021 21:20:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 21:26:31.776162
- Title: Online Continual Learning in Image Classification: An Empirical Survey
- Title(参考訳): 画像分類におけるオンライン継続学習:実証的調査
- Authors: Zheda Mai, Ruiwen Li, Jihwan Jeong, David Quispe, Hyunwoo Kim, Scott
Sanner
- Abstract要約: 画像分類のためのオンライン連続学習 オンラインデータとタスクのストリームから画像を分類する学習の問題の研究。
継続的な学習の重要な課題の1つは、壊滅的な忘れ(CF)、すなわち、より最近のタスクの存在下で古いタスクを忘れることを避けることです。
この調査は、MIR、iCARL、GDumbなどの最先端の方法を比較し、異なる実験環境でどちらが最適かを決定することを目的としています。
- 参考スコア(独自算出の注目度): 14.76986340949466
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online continual learning for image classification studies the problem of
learning to classify images from an online stream of data and tasks, where
tasks may include new classes (class incremental) or data nonstationarity
(domain incremental). One of the key challenges of continual learning is to
avoid catastrophic forgetting (CF), i.e., forgetting old tasks in the presence
of more recent tasks. Over the past few years, many methods and tricks have
been introduced to address this problem, but many have not been fairly and
systematically compared under a variety of realistic and practical settings. To
better understand the relative advantages of various approaches and the
settings where they work best, this survey aims to (1) compare state-of-the-art
methods such as MIR, iCARL, and GDumb and determine which works best at
different experimental settings; (2) determine if the best class incremental
methods are also competitive in domain incremental setting; (3) evaluate the
performance of 7 simple but effective trick such as "review" trick and nearest
class mean (NCM) classifier to assess their relative impact. Regarding (1), we
observe earlier proposed iCaRL remains competitive when the memory buffer is
small; GDumb outperforms many recently proposed methods in medium-size datasets
and MIR performs the best in larger-scale datasets. For (2), we note that GDumb
performs quite poorly while MIR -- already competitive for (1) -- is also
strongly competitive in this very different but important setting. Overall,
this allows us to conclude that MIR is overall a strong and versatile method
across a wide variety of settings. For (3), we find that all 7 tricks are
beneficial, and when augmented with the "review" trick and NCM classifier, MIR
produces performance levels that bring online continual learning much closer to
its ultimate goal of matching offline training.
- Abstract(参考訳): 画像分類のためのオンライン連続学習 オンラインデータとタスクのストリームからイメージを分類する学習の問題は、タスクには新しいクラス(クラスインクリメンタル)やデータ非定常(ドメインインクリメンタル)が含まれる可能性がある。
継続的な学習の重要な課題の1つは、壊滅的な忘れ(CF)、すなわち、より最近のタスクの存在下で古いタスクを忘れることを避けることです。
ここ数年、この問題に対処するために多くの方法やトリックが導入されてきたが、現実的で実用的な様々な設定下では、多くは公平かつ体系的に比較されていない。
To better understand the relative advantages of various approaches and the settings where they work best, this survey aims to (1) compare state-of-the-art methods such as MIR, iCARL, and GDumb and determine which works best at different experimental settings; (2) determine if the best class incremental methods are also competitive in domain incremental setting; (3) evaluate the performance of 7 simple but effective trick such as "review" trick and nearest class mean (NCM) classifier to assess their relative impact.
1)メモリバッファが小さい場合,提案したiCaRLは依然として競争力があり,GDumbは近年提案されている多くの手法を中規模データセットで上回り,MIRは大規模データセットで最良である。
2) では、GDumb は性能がかなり悪いが、MIR (すでに (1) と競合している) も、この非常に異なるが重要な設定において強い競争力を持っていることに注意してください。
全体として、これはMIRが広範囲の設定にわたる強く、多目的な方法であることを結論づけることができます。
(3)では、すべての7つのトリックが有益であり、「レビュー」トリックとNCM分類器で強化されると、MIRはオンラインの継続的な学習をオフライントレーニングにマッチするという究極の目標にはるかに近づかせるパフォーマンスレベルを生成します。
関連論文リスト
- A streamlined Approach to Multimodal Few-Shot Class Incremental Learning
for Fine-Grained Datasets [23.005760505169803]
FSCIL(Few-shot Class-Incremental Learning)は、限られた新しいデータストリームから学習しながら、事前の知識を維持するという課題を提起する。
本稿では,セッション間の画像テキスト埋め込みの分離性を向上するSSP(Session-Specific Prompts)を提案する。
第2のハイパーボリック距離は、同じクラス内の画像とテキストのペアの表現を圧縮し、異なるクラスから拡張し、より良い表現をもたらす。
論文 参考訳(メタデータ) (2024-03-10T19:50:03Z) - NEVIS'22: A Stream of 100 Tasks Sampled from 30 Years of Computer Vision
Research [96.53307645791179]
我々は,100以上の視覚的分類タスクのストリームからなるベンチマークであるNever-Ending VIsual-classification Stream (NEVIS'22)を紹介する。
分類に制限されているにもかかわらず、OCR、テクスチャ分析、シーン認識など、様々なタスクが生成される。
NEVIS'22は、タスクの規模と多様性のために、現在のシーケンシャルな学習アプローチに対して前例のない課題を提起している。
論文 参考訳(メタデータ) (2022-11-15T18:57:46Z) - Planning for Sample Efficient Imitation Learning [52.44953015011569]
現在の模倣アルゴリズムは、高い性能と高環境サンプル効率を同時に達成するのに苦労している。
本研究では,環境内サンプルの効率と性能を同時に達成できる計画型模倣学習手法であるEfficientImitateを提案する。
実験結果から,EIは性能と試料効率の両立を図った。
論文 参考訳(メタデータ) (2022-10-18T05:19:26Z) - Few-Example Clustering via Contrastive Learning [16.346069386394703]
本稿では,Few-Example Clustering (FEC)を提案する。
FECは興味深い学習曲線を示し、クラスタリング性能は徐々に増加し、その後急激に低下する。
論文 参考訳(メタデータ) (2022-07-08T05:33:46Z) - vCLIMB: A Novel Video Class Incremental Learning Benchmark [53.90485760679411]
本稿では,ビデオ連続学習ベンチマークvCLIMBを紹介する。
vCLIMBは、ビデオ連続学習における深層モデルの破滅的な忘れを解析するための標準化されたテストベッドである。
本稿では,メモリベース連続学習法に適用可能な時間的整合性正規化を提案する。
論文 参考訳(メタデータ) (2022-01-23T22:14:17Z) - An Investigation of Replay-based Approaches for Continual Learning [79.0660895390689]
連続学習(CL)は機械学習(ML)の大きな課題であり、破滅的忘れ(CF)を伴わずに連続的に複数のタスクを学習する能力を記述する。
いくつかの解クラスが提案されており、その単純さと堅牢性から、いわゆるリプレイベースのアプローチは非常に有望であるように思われる。
連続学習におけるリプレイに基づくアプローチを実証的に検討し,応用の可能性を評価する。
論文 参考訳(メタデータ) (2021-08-15T15:05:02Z) - In Defense of the Learning Without Forgetting for Task Incremental
Learning [91.3755431537592]
破滅的な忘れは、継続的な学習システムへの道のりにおける大きな課題の1つだ。
本稿では, タスクインクリメンタルシナリオにおいて, 正しいアーキテクチャと標準的な拡張セットを併用して, LwF が得られた結果が最新のアルゴリズムを上回り, タスクインクリメンタルシナリオが実現されたことを示す。
論文 参考訳(メタデータ) (2021-07-26T16:23:13Z) - Few-Shot Incremental Learning with Continually Evolved Classifiers [46.278573301326276]
Few-shot Class-Incremental Learning(FSCIL)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムの設計を目指している。
難点は、新しいクラスからの限られたデータが、重大な過度な問題を引き起こすだけでなく、破滅的な忘れの問題も悪化させることにある。
我々は,適応のための分類器間のコンテキスト情報を伝達するグラフモデルを用いた連続進化型cif(cec)を提案する。
論文 参考訳(メタデータ) (2021-04-07T10:54:51Z) - Comparing Transfer and Meta Learning Approaches on a Unified Few-Shot
Classification Benchmark [44.530605715850506]
大規模メタラーニングベンチマークとトランスファーラーニングベンチマークにおける最適なトランスファーとメタラーニングの家族間比較検討
その結果,ImageNetでのみトレーニングした場合においても,大規模転送方式(Big Transfer, BiT)はMD上での競合手法よりも優れていた。
評価基準の相違点を多数明らかにし,それらのいくつかを性能差の観点から検討した。
論文 参考訳(メタデータ) (2021-04-06T16:17:51Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z) - A survey on Semi-, Self- and Unsupervised Learning for Image
Classification [0.7874708385247351]
ラベルのないデータをトレーニングプロセスに組み込んで、ラベルの少ない結果に等しく到達することが一般的である。
最先端の手法は理論上の実世界の応用には拡張可能であるが、クラス不均衡、堅牢性、ファジィラベルといった問題は考慮されていない。
すべてのメソッドは共通のアイデアを共有していますが、多くのアイデアを共有しないメソッドのクラスタを特定します。
論文 参考訳(メタデータ) (2020-02-20T13:29:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。