論文の概要: Class-incremental Learning with Rectified Feature-Graph Preservation
- arxiv url: http://arxiv.org/abs/2012.08129v2
- Date: Fri, 22 Jan 2021 09:06:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-08 11:37:29.822351
- Title: Class-incremental Learning with Rectified Feature-Graph Preservation
- Title(参考訳): 特徴グラフ保存によるクラスインクリメンタル学習
- Authors: Cheng-Hsun Lei, Yi-Hsin Chen, Wen-Hsiao Peng, Wei-Chen Chiu
- Abstract要約: 本論文の中心的なテーマは,逐次的な段階を経る新しいクラスを学習することである。
旧知識保存のための重み付きユークリッド正規化を提案する。
新しいクラスを効果的に学習するために、クラス分離を増やすためにバイナリクロスエントロピーでどのように機能するかを示す。
- 参考スコア(独自算出の注目度): 24.098892115785066
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we address the problem of distillation-based class-incremental
learning with a single head. A central theme of this task is to learn new
classes that arrive in sequential phases over time while keeping the model's
capability of recognizing seen classes with only limited memory for preserving
seen data samples. Many regularization strategies have been proposed to
mitigate the phenomenon of catastrophic forgetting. To understand better the
essence of these regularizations, we introduce a feature-graph preservation
perspective. Insights into their merits and faults motivate our
weighted-Euclidean regularization for old knowledge preservation. We further
propose rectified cosine normalization and show how it can work with binary
cross-entropy to increase class separation for effective learning of new
classes. Experimental results on both CIFAR-100 and ImageNet datasets
demonstrate that our method outperforms the state-of-the-art approaches in
reducing classification error, easing catastrophic forgetting, and encouraging
evenly balanced accuracy over different classes. Our project page is at :
https://github.com/yhchen12101/FGP-ICL.
- Abstract(参考訳): 本稿では,1つの頭を用いた蒸留法に基づくクラス増分学習の問題に対処する。
このタスクの中心的なテーマは、シーケンシャルなフェーズで到着する新しいクラスを学習し、参照データサンプルを保存するためのメモリ制限のある参照クラスを認識できるモデルの能力を維持することである。
壊滅的な忘れる現象を緩和するために多くの規則化戦略が提案されている。
これらの正規化の本質をよりよく理解するために,特徴グラフ保存の観点から紹介する。
彼らのメリットと欠点に対する洞察は、古い知識保存のための重み付きユークリッド正規化を動機付ける。
さらに,正規化コサイン正規化を提案し,新しいクラスを効果的に学習するためのクラス分離を増加させるために,バイナリクロスエントロピーとどのように連携するかを示す。
CIFAR-100とImageNetの2つのデータセットによる実験結果から,本手法は分類誤差の低減,破滅的忘れの緩和,各クラスに対する等バランスの取れた精度の向上など,最先端の手法よりも優れていることが示された。
プロジェクトページはhttps://github.com/yhchen12101/fgp-icl。
関連論文リスト
- Happy: A Debiased Learning Framework for Continual Generalized Category Discovery [54.54153155039062]
本稿では,C-GCD(Continuous Generalized Category Discovery)の未探索課題について考察する。
C-GCDは、学習済みのクラスを認識する能力を維持しながら、ラベルのないデータから新しいクラスを漸進的に発見することを目的としている。
本稿では,ハードネスを意識したプロトタイプサンプリングとソフトエントロピー正規化を特徴とする,偏りのある学習フレームワークであるHappyを紹介する。
論文 参考訳(メタデータ) (2024-10-09T04:18:51Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Class Incremental Learning with Self-Supervised Pre-Training and
Prototype Learning [21.901331484173944]
授業の段階的学習における破滅的忘れの原因を分析した。
固定エンコーダと漸進的に更新されたプロトタイプ分類器を備えた2段階学習フレームワークを提案する。
本手法は古いクラスを保存したサンプルに頼らず,非例ベースのCIL法である。
論文 参考訳(メタデータ) (2023-08-04T14:20:42Z) - Class-Incremental Learning: A Survey [84.30083092434938]
CIL(Class-Incremental Learning)は、学習者が新しいクラスの知識を段階的に取り入れることを可能にする。
CILは、前者の特徴を壊滅的に忘れる傾向にあり、その性能は劇的に低下する。
ベンチマーク画像分類タスクにおける17の手法の厳密で統一的な評価を行い、異なるアルゴリズムの特徴を明らかにする。
論文 参考訳(メタデータ) (2023-02-07T17:59:05Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Always Be Dreaming: A New Approach for Data-Free Class-Incremental
Learning [73.24988226158497]
データフリークラスインクリメンタルラーニング(DFCIL)における高インパクト問題について考察する。
そこで本研究では, 改良型クロスエントロピートレーニングと重要重み付き特徴蒸留に寄与するDFCILの新たなインクリメンタル蒸留戦略を提案する。
本手法は,共通クラスインクリメンタルベンチマークにおけるSOTA DFCIL法と比較して,最終タスク精度(絶対差)が25.1%向上する。
論文 参考訳(メタデータ) (2021-06-17T17:56:08Z) - Few-Shot Incremental Learning with Continually Evolved Classifiers [46.278573301326276]
Few-shot Class-Incremental Learning(FSCIL)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムの設計を目指している。
難点は、新しいクラスからの限られたデータが、重大な過度な問題を引き起こすだけでなく、破滅的な忘れの問題も悪化させることにある。
我々は,適応のための分類器間のコンテキスト情報を伝達するグラフモデルを用いた連続進化型cif(cec)を提案する。
論文 参考訳(メタデータ) (2021-04-07T10:54:51Z) - On the Exploration of Incremental Learning for Fine-grained Image
Retrieval [45.48333682748607]
我々は,新たなカテゴリが時間とともに追加される場合に,細粒度画像検索の問題を漸進的に考慮する。
本稿では,検索性能の劣化を抑えるための漸進学習手法を提案する。
提案手法は,新しいクラスにおいて高い性能を保ちながら,元のクラスにおける破滅的な忘れを効果的に軽減する。
論文 参考訳(メタデータ) (2020-10-15T21:07:44Z) - Self-Supervised Learning Aided Class-Incremental Lifelong Learning [17.151579393716958]
クラスインクリメンタルラーニング(Class-IL)における破滅的忘れの問題について検討する。
クラスILの訓練手順では、モデルが次のタスクについて知識を持っていないため、これまで学習してきたタスクに必要な特徴のみを抽出し、その情報は共同分類に不十分である。
本稿では,ラベルを必要とせずに効果的な表現を提供する自己教師型学習と,この問題を回避するためのクラスILを組み合わせることを提案する。
論文 参考訳(メタデータ) (2020-06-10T15:15:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。