論文の概要: Class-incremental learning: survey and performance evaluation on image
classification
- arxiv url: http://arxiv.org/abs/2010.15277v2
- Date: Thu, 6 May 2021 21:30:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 05:03:34.211475
- Title: Class-incremental learning: survey and performance evaluation on image
classification
- Title(参考訳): クラス増分学習:画像分類に関する調査と性能評価
- Authors: Marc Masana, Xialei Liu, Bartlomiej Twardowski, Mikel Menta, Andrew D.
Bagdanov, Joost van de Weijer
- Abstract要約: 増分学習は、新しいデータの到着時にスクラッチから再トレーニングする必要をなくし、効率的なリソース使用を可能にする。
漸進的な学習の最大の課題は破滅的な忘れことであり、これは新しいタスクを学習した後、以前に学習したタスクのパフォーマンスが急落したことを指す。
近年,学習者がタスクIDを使わずに,過去のタスクで見られた全てのクラス間での推論時間において,学習者が識別しなければならないクラス増分学習へのシフトが見られた。
- 参考スコア(独自算出の注目度): 38.27344435075399
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For future learning systems incremental learning is desirable, because it
allows for: efficient resource usage by eliminating the need to retrain from
scratch at the arrival of new data; reduced memory usage by preventing or
limiting the amount of data required to be stored -- also important when
privacy limitations are imposed; and learning that more closely resembles human
learning. The main challenge for incremental learning is catastrophic
forgetting, which refers to the precipitous drop in performance on previously
learned tasks after learning a new one. Incremental learning of deep neural
networks has seen explosive growth in recent years. Initial work focused on
task-incremental learning, where a task-ID is provided at inference time.
Recently, we have seen a shift towards class-incremental learning where the
learner must discriminate at inference time between all classes seen in
previous tasks without recourse to a task-ID. In this paper, we provide a
complete survey of existing class-incremental learning methods for image
classification, and in particular we perform an extensive experimental
evaluation on thirteen class-incremental methods. We consider several new
experimental scenarios, including a comparison of class-incremental methods on
multiple large-scale image classification datasets, investigation into small
and large domain shifts, and comparison of various network architectures.
- Abstract(参考訳): 将来的な学習システムにとって、インクリメンタルな学習が望ましいのは、新しいデータの到着時にスクラッチから再トレーニングする必要をなくすことによる効率的なリソース使用量、保存に必要なデータ量(プライバシの制限が課される場合)の防止または制限によるメモリ使用量の削減、より人間の学習によく似た学習などだ。
インクリメンタル学習の最大の課題は、新しいタスクを学習した後に、事前学習されたタスクのパフォーマンスが急落することを指す、破滅的な忘れ方である。
近年、深層ニューラルネットワークの漸進的な学習が爆発的な成長を遂げている。
最初の作業は、推論時にタスクIDが提供されるタスク増分学習に焦点を当てた。
近年,学習者がタスクIDを使わずに過去のタスクで見られた全てのクラス間の推論時間で識別しなければならないクラス増分学習へのシフトが見られた。
本稿では,既存の画像分類のためのクラスインクリメンタル学習手法の完全な調査を行い,特に13のクラスインクリメンタル学習法について広範な実験評価を行った。
本研究では,複数の大規模画像分類データセットにおけるクラスインクリメンタル手法の比較,小領域と大領域のシフトの調査,各種ネットワークアーキテクチャの比較など,新たな実験シナリオを検討する。
関連論文リスト
- Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Class-Incremental Learning: A Survey [84.30083092434938]
CIL(Class-Incremental Learning)は、学習者が新しいクラスの知識を段階的に取り入れることを可能にする。
CILは、前者の特徴を壊滅的に忘れる傾向にあり、その性能は劇的に低下する。
ベンチマーク画像分類タスクにおける17の手法の厳密で統一的な評価を行い、異なるアルゴリズムの特徴を明らかにする。
論文 参考訳(メタデータ) (2023-02-07T17:59:05Z) - A Multi-label Continual Learning Framework to Scale Deep Learning
Approaches for Packaging Equipment Monitoring [57.5099555438223]
連続シナリオにおけるマルチラベル分類を初めて研究した。
タスク数に関して対数的複雑性を持つ効率的なアプローチを提案する。
我々は,包装業界における実世界のマルチラベル予測問題に対するアプローチを検証した。
論文 参考訳(メタデータ) (2022-08-08T15:58:39Z) - LifeLonger: A Benchmark for Continual Disease Classification [59.13735398630546]
MedMNISTコレクションの連続的な疾患分類のためのベンチマークであるLifeLongerを紹介する。
タスクとクラスでの病気の漸進的な学習は、モデルをスクラッチから再トレーニングすることなく、新しいサンプルを分類する問題に対処する。
クロスドメインインクリメンタル学習は、これまで得られた知識を維持しながら、異なる機関から派生したデータセットを扱う問題に対処する。
論文 参考訳(メタデータ) (2022-04-12T12:25:05Z) - DIODE: Dilatable Incremental Object Detection [15.59425584971872]
従来のディープラーニングモデルには、以前に学習した知識を保存する能力がない。
多段階インクリメンタル検出タスクのための拡張可能なインクリメンタルオブジェクト検出器(DIODE)を提案する。
提案手法は,新たに学習した各タスクのパラメータ数を1.2%増加させることで,最大6.4%の性能向上を実現する。
論文 参考訳(メタデータ) (2021-08-12T09:45:57Z) - On the importance of cross-task features for class-incremental learning [14.704888854064501]
クラス増分学習では、限られたリソースを持つエージェントが一連の分類タスクを学習する必要がある。
タスクIDを推論時に利用できるタスクインクリメンタル学習との主な違いは、学習者がタスク間の差別を行う必要があることである。
論文 参考訳(メタデータ) (2021-06-22T17:03:15Z) - Incremental Embedding Learning via Zero-Shot Translation [65.94349068508863]
現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
論文 参考訳(メタデータ) (2020-12-31T08:21:37Z) - On the Exploration of Incremental Learning for Fine-grained Image
Retrieval [45.48333682748607]
我々は,新たなカテゴリが時間とともに追加される場合に,細粒度画像検索の問題を漸進的に考慮する。
本稿では,検索性能の劣化を抑えるための漸進学習手法を提案する。
提案手法は,新しいクラスにおいて高い性能を保ちながら,元のクラスにおける破滅的な忘れを効果的に軽減する。
論文 参考訳(メタデータ) (2020-10-15T21:07:44Z) - Self-Supervised Learning Aided Class-Incremental Lifelong Learning [17.151579393716958]
クラスインクリメンタルラーニング(Class-IL)における破滅的忘れの問題について検討する。
クラスILの訓練手順では、モデルが次のタスクについて知識を持っていないため、これまで学習してきたタスクに必要な特徴のみを抽出し、その情報は共同分類に不十分である。
本稿では,ラベルを必要とせずに効果的な表現を提供する自己教師型学習と,この問題を回避するためのクラスILを組み合わせることを提案する。
論文 参考訳(メタデータ) (2020-06-10T15:15:27Z) - Semantic Drift Compensation for Class-Incremental Learning [48.749630494026086]
ディープネットワークのクラス増分学習は、分類対象のクラス数を順次増加させる。
本研究では,特徴のセマンティックドリフト(セマンティックドリフト)と呼ばれるドリフトを推定し,その補正を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2020-04-01T13:31:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。