論文の概要: Prediction Error-based Classification for Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2305.18806v1
- Date: Tue, 30 May 2023 07:43:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 17:52:21.655250
- Title: Prediction Error-based Classification for Class-Incremental Learning
- Title(参考訳): クラス増分学習のための予測誤差に基づく分類
- Authors: Micha{\l} Zaj\k{a}c, Tinne Tuytelaars, Gido M. van de Ven
- Abstract要約: 予測誤差に基づく分類(PEC)を導入する
PECは、そのクラスのデータに基づいて、凍結ランダムニューラルネットワークの出力を複製するために訓練されたモデルの予測誤差を測定して、クラススコアを算出する。
PECは、サンプル効率、チューニングの容易さ、データを一度に1つのクラスに提示しても有効性など、いくつかの実用的な利点を提供している。
- 参考スコア(独自算出の注目度): 37.285659475927325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Class-incremental learning (CIL) is a particularly challenging variant of
continual learning, where the goal is to learn to discriminate between all
classes presented in an incremental fashion. Existing approaches often suffer
from excessive forgetting and imbalance of the scores assigned to classes that
have not been seen together during training. In this study, we introduce a
novel approach, Prediction Error-based Classification (PEC), which differs from
traditional discriminative and generative classification paradigms. PEC
computes a class score by measuring the prediction error of a model trained to
replicate the outputs of a frozen random neural network on data from that
class. The method can be interpreted as approximating a classification rule
based on Gaussian Process posterior variance. PEC offers several practical
advantages, including sample efficiency, ease of tuning, and effectiveness even
when data are presented one class at a time. Our empirical results show that
PEC performs strongly in single-pass-through-data CIL, outperforming other
rehearsal-free baselines in all cases and rehearsal-based methods with moderate
replay buffer size in most cases across multiple benchmarks.
- Abstract(参考訳): class-incremental learning (cil) は、インクリメンタルな方法で提示されるすべてのクラスを識別することを学ぶことを目的とした、継続学習の特に難しい変種である。
既存のアプローチは、トレーニング中に一緒に見られなかったクラスに割り当てられたスコアの過度な忘れと不均衡に苦しむことが多い。
本研究では,従来の識別的・生成的分類パラダイムとは異なる予測誤りに基づく分類法(PEC)を提案する。
PECは、そのクラスのデータ上で凍結ランダムニューラルネットワークの出力を複製するために訓練されたモデルの予測誤差を測定することで、クラススコアを算出する。
この方法はガウス過程の後方分散に基づく分類規則の近似として解釈できる。
PECは、サンプル効率、チューニングの容易さ、データを一度に1つのクラスに提示しても有効性など、いくつかの実用的な利点を提供している。
実験の結果,PECはシングルパススルーデータCILにおいて高い性能を示し,全てのケースにおいて他のリハーサルフリーベースラインよりも優れており,多くのベンチマークにおいて中程度のリプレイバッファサイズを持つリハーサルベースメソッドよりも優れていた。
関連論文リスト
- An Efficient Replay for Class-Incremental Learning with Pre-trained Models [0.0]
授業増分学習では,各クラス中心で案内される重み間の定常状態が破壊され,忘れることと大きく相関する。
忘れを克服する新しい方法を提案する。
論文 参考訳(メタデータ) (2024-08-15T11:26:28Z) - Pairwise Difference Learning for Classification [19.221081896134567]
PDL(Pairwise difference learning)は、最近、回帰のための新しいメタラーニング技術として導入されている。
元のトレーニングデータのペアバージョン上で、適切に定義された(バイナリ)分類問題を解くことにより、PDLを分類タスクに向けて拡張する。
PDLの実装はPythonパッケージで簡単に利用でき、公開されています。
論文 参考訳(メタデータ) (2024-06-28T16:20:22Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Bias Mitigating Few-Shot Class-Incremental Learning [17.185744533050116]
クラス増分学習は,限定された新規クラスサンプルを用いて,新規クラスを継続的に認識することを目的としている。
最近の手法では,段階的なセッションで特徴抽出器を微調整することにより,ベースクラスとインクリメンタルクラスの精度の不均衡を緩和している。
本研究では,FSCIL問題におけるモデルバイアスを緩和する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-01T10:37:41Z) - A Unified Generalization Analysis of Re-Weighting and Logit-Adjustment
for Imbalanced Learning [129.63326990812234]
そこで本研究では,データ依存型コンダクタンス(Data-dependent contraction)と呼ばれる手法を提案する。
この技術に加えて、不均衡学習のための微粒な一般化境界が確立され、再重み付けとロジット調整の謎を明らかにするのに役立つ。
論文 参考訳(メタデータ) (2023-10-07T09:15:08Z) - Complementary Labels Learning with Augmented Classes [22.460256396941528]
補完ラベル学習 (Complementary Labels Learning, CLL) は、プライベート質問分類やオンライン学習など、現実世界の多くのタスクに現れる。
CLLAC(Complementary Labels Learning with Augmented Classs)と呼ばれる新しい問題設定を提案する。
ラベルのないデータを用いて,CLLACの分類リスクの偏りのない推定手法を提案する。
論文 参考訳(メタデータ) (2022-11-19T13:55:27Z) - Relieving Long-tailed Instance Segmentation via Pairwise Class Balance [85.53585498649252]
長い尾のインスタンスセグメンテーションは、クラス間のトレーニングサンプルの極端な不均衡のために難しいタスクである。
尾のついたものに対して、(大多数のサンプルを含む)ヘッドクラスの深刻なバイアスを引き起こす。
そこで本研究では,学習中の予測嗜好を蓄積するために,学習中に更新される混乱行列上に構築された新しいPairwise Class Balance(PCB)手法を提案する。
論文 参考訳(メタデータ) (2022-01-08T07:48:36Z) - When in Doubt: Improving Classification Performance with Alternating
Normalization [57.39356691967766]
分類のための非パラメトリック後処理ステップである交互正規化(CAN)を用いた分類を導入する。
CANは、予測されたクラス確率分布を再調整することで、挑戦的な例の分類精度を向上させる。
多様な分類課題にまたがってその効果を実証的に示す。
論文 参考訳(メタデータ) (2021-09-28T02:55:42Z) - Solving Long-tailed Recognition with Deep Realistic Taxonomic Classifier [68.38233199030908]
ロングテール認識は、現実世界のシナリオにおける自然な非一様分散データに取り組む。
モダンは人口密度の高いクラスではうまく機能するが、そのパフォーマンスはテールクラスでは著しく低下する。
Deep-RTCは、リアリズムと階層的予測を組み合わせたロングテール問題の新しい解法として提案されている。
論文 参考訳(メタデータ) (2020-07-20T05:57:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。