論文の概要: Decomposed Knowledge Distillation for Class-Incremental Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2210.05941v1
- Date: Wed, 12 Oct 2022 06:15:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 14:36:56.711922
- Title: Decomposed Knowledge Distillation for Class-Incremental Semantic
Segmentation
- Title(参考訳): クラスインクリメンタルセグメンテーションのための分解知識蒸留
- Authors: Donghyeon Baek, Youngmin Oh, Sanghoon Lee, Junghyup Lee, Bumsub Ham
- Abstract要約: クラスインクリメンタルセマンティックセグメンテーション(CISS)は、画像の各ピクセルに対応するオブジェクト/スタッフクラスを連続的にラベル付けする。
それまでの知識を忘れずに、新しいクラスを漸進的に学ぶことが不可欠である。
我々は,忘れる問題を軽減し,新しい授業を効果的に学習するためのCISSフレームワークを導入する。
- 参考スコア(独自算出の注目度): 34.460973847554364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Class-incremental semantic segmentation (CISS) labels each pixel of an image
with a corresponding object/stuff class continually. To this end, it is crucial
to learn novel classes incrementally without forgetting previously learned
knowledge. Current CISS methods typically use a knowledge distillation (KD)
technique for preserving classifier logits, or freeze a feature extractor, to
avoid the forgetting problem. The strong constraints, however, prevent learning
discriminative features for novel classes. We introduce a CISS framework that
alleviates the forgetting problem and facilitates learning novel classes
effectively. We have found that a logit can be decomposed into two terms. They
quantify how likely an input belongs to a particular class or not, providing a
clue for a reasoning process of a model. The KD technique, in this context,
preserves the sum of two terms (i.e., a class logit), suggesting that each
could be changed and thus the KD does not imitate the reasoning process. To
impose constraints on each term explicitly, we propose a new decomposed
knowledge distillation (DKD) technique, improving the rigidity of a model and
addressing the forgetting problem more effectively. We also introduce a novel
initialization method to train new classifiers for novel classes. In CISS, the
number of negative training samples for novel classes is not sufficient to
discriminate old classes. To mitigate this, we propose to transfer knowledge of
negatives to the classifiers successively using an auxiliary classifier,
boosting the performance significantly. Experimental results on standard CISS
benchmarks demonstrate the effectiveness of our framework.
- Abstract(参考訳): クラスインクリメンタルセマンティックセグメンテーション(CISS)は、画像の各ピクセルに対応するオブジェクト/スタッフクラスを連続的にラベル付けする。
この目的のためには、それまでの知識を忘れずに、新しい授業を段階的に学習することが不可欠である。
現在のciss法は、通常、分類子ロジットの保存や特徴抽出器の凍結に知識蒸留(kd)技術を使用して、忘れられる問題を避ける。
しかし、強い制約は、新しいクラスにおける差別的特徴の学習を妨げる。
我々は,忘れる問題を軽減し,新しい授業を効果的に学習するためのCISSフレームワークを導入する。
我々はロジットを2つの項に分解できることを発見した。
入力が特定のクラスに属するかどうかを定量化し、モデルの推論プロセスの手がかりを提供する。
この文脈において、KD技法は2つの項の和(すなわちクラスロジット)を保存し、各項が変更可能であることを示唆し、したがってKDは推論過程を模倣しない。
それぞれの用語に制約を課すために,新しい分解型知識蒸留(dkd)手法を提案し,モデルの剛性を改善し,より効果的に忘れる問題に対処する。
また,新しいクラスに対する新しい分類器を訓練するための新しい初期化手法を提案する。
CISSでは、新しいクラスの負のトレーニングサンプルの数は、古いクラスの識別には不十分である。
そこで本研究では,否定の知識を補助分類器を用いて順次分類器に移し,性能を著しく向上させる手法を提案する。
標準CISSベンチマークによる実験結果から,本フレームワークの有効性が示された。
関連論文リスト
- PASS++: A Dual Bias Reduction Framework for Non-Exemplar Class-Incremental Learning [49.240408681098906]
クラスインクリメンタルラーニング(CIL)は,旧クラスの識別性を維持しつつ,新たなクラスを段階的に認識することを目的としている。
既存のCILメソッドの多くは、例えば、古いデータの一部を格納して再トレーニングする例がある。
本稿では、入力空間における自己教師付き変換(SST)と深い特徴空間におけるプロトタイプ拡張(protoAug)を利用する、単純で斬新な二重バイアス低減フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-19T05:03:16Z) - Towards Non-Exemplar Semi-Supervised Class-Incremental Learning [33.560003528712414]
クラス増分学習は、古いクラスの識別性を保ちながら、新しいクラスを徐々に認識することを目的としている。
コントラスト学習と半教師付きインクリメンタルプロトタイプ分類器(Semi-IPC)を用いた非経験的半教師付きCILフレームワークを提案する。
Semi-IPCは教師なしの正規化で各クラスのプロトタイプを学習し、部分的にラベル付けされた新しいデータからモデルを漸進的に学習することを可能にする。
論文 参考訳(メタデータ) (2024-03-27T06:28:19Z) - Enhancing Visual Continual Learning with Language-Guided Supervision [76.38481740848434]
継続的な学習は、モデルが以前獲得した知識を忘れずに新しいタスクを学習できるようにすることを目的としている。
ワンホットラベルが伝達する少ない意味情報は,タスク間の効果的な知識伝達を妨げている,と我々は主張する。
具体的には, PLM を用いて各クラスのセマンティックターゲットを生成し, 凍結し, 監視信号として機能する。
論文 参考訳(メタデータ) (2024-03-24T12:41:58Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - A Hard-to-Beat Baseline for Training-free CLIP-based Adaptation [121.0693322732454]
対照的に、CLIP(Contrastive Language- Image Pretraining)はその目覚ましいゼロショット能力で人気を集めている。
近年の研究では、下流タスクにおけるCLIPの性能を高めるための効率的な微調整手法の開発に焦点が当てられている。
従来のアルゴリズムであるガウス判別分析(GDA)を再検討し,CLIPの下流分類に適用する。
論文 参考訳(メタデータ) (2024-02-06T15:45:27Z) - Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration [67.69532794049445]
既存のメソッドでは、新しいクラスのサンプルをベースクラスに誤分類する傾向があり、新しいクラスのパフォーマンスが低下する。
我々は,新しいクラスの識別性を高めるため,簡易かつ効果的なトレーニング-フレア・カロブラシアン (TEEN) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-08T18:24:08Z) - SSUL: Semantic Segmentation with Unknown Label for Exemplar-based
Class-Incremental Learning [19.152041362805985]
クラスインクリメンタルセマンティックセグメンテーション(CISS)問題を考える。
本稿では,セマンティックセグメンテーションに適した複数の手法を慎重に組み合わせ,SSUL-M(Semantic with Unknown Label with Memory)と呼ばれる新しい手法を提案する。
提案手法は,最新の標準ベンチマークデータセットのベースラインよりも性能が大幅に向上していることを示す。
論文 参考訳(メタデータ) (2021-06-22T06:40:26Z) - ClaRe: Practical Class Incremental Learning By Remembering Previous
Class Representations [9.530976792843495]
クラスインクリメンタル学習(cil)は、新しい概念を完全に学習する傾向があるが、古いデータのパフォーマンスと正確性を犠牲にしない。
ClaReは、各インクリメントで学んだクラスの表現を覚えておくことで、CILの効率的なソリューションです。
ClaReは、以前に学習したクラスの分布から多様なインスタンスを生成するため、従来の方法よりも優れた一般化がある。
論文 参考訳(メタデータ) (2021-03-29T10:39:42Z) - Class-incremental Learning with Rectified Feature-Graph Preservation [24.098892115785066]
本論文の中心的なテーマは,逐次的な段階を経る新しいクラスを学習することである。
旧知識保存のための重み付きユークリッド正規化を提案する。
新しいクラスを効果的に学習するために、クラス分離を増やすためにバイナリクロスエントロピーでどのように機能するかを示す。
論文 参考訳(メタデータ) (2020-12-15T07:26:04Z) - Learning Adaptive Embedding Considering Incremental Class [55.21855842960139]
CIL(Class-Incremental Learning)は,未知のクラスを逐次生成するストリーミングデータを用いて,信頼性の高いモデルをトレーニングすることを目的としている。
従来のクローズドセット学習とは異なり、CILには2つの大きな課題がある。
新たなクラスが検出された後、以前のデータ全体を使用して再トレーニングすることなく、モデルを更新する必要がある。
論文 参考訳(メタデータ) (2020-08-31T04:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。