論文の概要: Exemplar-free Class Incremental Learning via Discriminative and
Comparable One-class Classifiers
- arxiv url: http://arxiv.org/abs/2201.01488v1
- Date: Wed, 5 Jan 2022 07:16:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-06 13:44:55.983063
- Title: Exemplar-free Class Incremental Learning via Discriminative and
Comparable One-class Classifiers
- Title(参考訳): 識別型・比較可能な1クラス分類器による模範学習
- Authors: Wenju Sun, Qingyong Li, Jing Zhang, Danyu Wang, Wen Wang, Yangli-ao
Geng
- Abstract要約: インクリメンタルラーニングのための識別・比較可能な1クラス分類器(DisCOIL)という新しいフレームワークを提案する。
DisCOILはPOCの基本原理に従っているが、他の確立された1クラス分類器(ディープSVDDなど)の代わりに変分自動エンコーダ(VAE)を採用している。
この利点により、DisCOILは新クラスのVAEと対照的に新クラスのVAEを訓練し、新クラスのVAEは新クラスのサンプルに対してより良い再構築を強いるが、旧クラスの偽のサンプルではさらに悪化し、改良された。
- 参考スコア(独自算出の注目度): 12.121885324463388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The exemplar-free class incremental learning requires classification models
to learn new class knowledge incrementally without retaining any old samples.
Recently, the framework based on parallel one-class classifiers (POC), which
trains a one-class classifier (OCC) independently for each category, has
attracted extensive attention, since it can naturally avoid catastrophic
forgetting. POC, however, suffers from weak discriminability and comparability
due to its independent training strategy for different OOCs. To meet this
challenge, we propose a new framework, named Discriminative and Comparable
One-class classifiers for Incremental Learning (DisCOIL). DisCOIL follows the
basic principle of POC, but it adopts variational auto-encoders (VAE) instead
of other well-established one-class classifiers (e.g. deep SVDD), because a
trained VAE can not only identify the probability of an input sample belonging
to a class but also generate pseudo samples of the class to assist in learning
new tasks. With this advantage, DisCOIL trains a new-class VAE in contrast with
the old-class VAEs, which forces the new-class VAE to reconstruct better for
new-class samples but worse for the old-class pseudo samples, thus enhancing
the comparability. Furthermore, DisCOIL introduces a hinge reconstruction loss
to ensure the discriminability. We evaluate our method extensively on MNIST,
CIFAR10, and Tiny-ImageNet. The experimental results show that DisCOIL achieves
state-of-the-art performance.
- Abstract(参考訳): exemplar-freeクラスインクリメンタル学習は、古いサンプルを保持せずに新しいクラス知識をインクリメンタルに学習する分類モデルを必要とする。
近年,各カテゴリごとに個別に1クラス分類器(occ)を訓練する並列型1クラス分類器(poc)に基づくフレームワークが注目されている。
しかしPOCは、異なるOOCに対する独立したトレーニング戦略のために、差別性とコンパラビリティに悩まされている。
この課題に対処するため,DisCOIL (Distriminative and Comparable One-class Classificationifiers for Incremental Learning) という新しいフレームワークを提案する。
DisCOILはPOCの基本原理に従っているが、訓練されたVAEがクラスに属する入力サンプルの確率を識別できるだけでなく、新しいタスクの学習を支援するためにクラスの擬似サンプルを生成するため、他の確立した1クラス分類器(ディープSVDDなど)の代わりに変分自動エンコーダ(VAE)を採用する。
この利点により、discoilは旧型のvaeとは対照的に新級vaeを訓練し、新級vaeは新級サンプルをより良く再構築するが、旧級疑似サンプルでは悪化し、互換性が向上した。
さらに、DisCOILは、識別性を確保するためにヒンジ復元損失を導入する。
提案手法はMNIST, CIFAR10, Tiny-ImageNetで広く評価されている。
実験の結果,DisCOILは最先端の性能を達成できた。
関連論文リスト
- Adaptive Margin Global Classifier for Exemplar-Free Class-Incremental Learning [3.4069627091757178]
既存の手法は主にバイアス学習を扱うことに焦点を当てている。
本研究では,データ不均衡やサンプリングといった既存手法のバイアス要因を回避するために,分散ベースグローバル(DBGC)を導入する。
さらに重要なのは、古いクラスの妥協された分布は、単純な操作、分散(VE)によってシミュレートされることだ。
この損失は、Adaptive Margin Softmax Cross Entropy (AMarX)と等価であることが証明されている。
論文 参考訳(メタデータ) (2024-09-20T07:07:23Z) - CBR - Boosting Adaptive Classification By Retrieval of Encrypted Network Traffic with Out-of-distribution [9.693391036125908]
一般的なアプローチの1つは、一定の数のクラスで機械学習またはディープラーニングベースのソリューションを使用することである。
未知のクラスを扱うソリューションの1つは、モデルを再トレーニングすることである。
本稿では,暗号ネットワークトラフィック分類の新しいアプローチであるRetrieval CBRによる適応分類を提案する。
論文 参考訳(メタデータ) (2024-03-17T13:14:09Z) - Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration [67.69532794049445]
既存のメソッドでは、新しいクラスのサンプルをベースクラスに誤分類する傾向があり、新しいクラスのパフォーマンスが低下する。
我々は,新しいクラスの識別性を高めるため,簡易かつ効果的なトレーニング-フレア・カロブラシアン (TEEN) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-08T18:24:08Z) - Generalization Bounds for Few-Shot Transfer Learning with Pretrained
Classifiers [26.844410679685424]
本研究では,新しいクラスに移動可能な分類の表現を基礎モデルで学習する能力について検討する。
クラス-機能-変数の崩壊の場合,新しいクラスで学習した特徴マップのわずかな誤差が小さいことを示す。
論文 参考訳(メタデータ) (2022-12-23T18:46:05Z) - Class-incremental Novel Class Discovery [76.35226130521758]
クラス増進型新規クラス発見(class-iNCD)の課題について検討する。
基本クラスに関する過去の情報を忘れないようにする,クラスiNCDのための新しい手法を提案する。
3つの共通ベンチマークで実施した実験により,本手法が最先端の手法を著しく上回ることを示した。
論文 参考訳(メタデータ) (2022-07-18T13:49:27Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Neighborhood Contrastive Learning for Novel Class Discovery [79.14767688903028]
我々は,クラスタリング性能に重要な識別表現を学習するために,Neighborhood Contrastive Learningという新しいフレームワークを構築した。
これらの2つの成分がクラスタリング性能に大きく寄与し、我々のモデルが最先端の手法よりも大きなマージンで優れていることを実験的に実証した。
論文 参考訳(メタデータ) (2021-06-20T17:34:55Z) - Counterfactual Zero-Shot and Open-Set Visual Recognition [95.43275761833804]
Zero-Shot Learning (ZSL) と Open-Set Recognition (OSR) の両方に対する新しい反実用フレームワークを提案する。
我々の考えは、目に見えないクラスのための生成されたサンプルは、しばしば真の分布から外れているという観察に由来する。
当社のフレームワークが見掛け/見当たらない不均衡を効果的に緩和し,全体的なパフォーマンスを大幅に向上させることを示す。
論文 参考訳(メタデータ) (2021-03-01T10:20:04Z) - Minimum Variance Embedded Auto-associative Kernel Extreme Learning
Machine for One-class Classification [1.4146420810689422]
VAAKELMは、自己連想型カーネル極端学習マシンの拡張である。
アーキテクチャ内に最小分散情報を埋め込んで、クラス内の分散を減らす。
これは、一級分類に対する再構成に基づくアプローチに従い、再構成エラーを最小限にする。
論文 参考訳(メタデータ) (2020-11-24T17:00:30Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。