論文の概要: ACIL: Active Class Incremental Learning for Image Classification
- arxiv url: http://arxiv.org/abs/2602.04252v1
- Date: Wed, 04 Feb 2026 06:22:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.401134
- Title: ACIL: Active Class Incremental Learning for Image Classification
- Title(参考訳): ACIL:画像分類のためのアクティブクラスインクリメンタルラーニング
- Authors: Aditya R. Bhattacharya, Debanjan Goswami, Shayok Chakraborty,
- Abstract要約: 本稿では、クラスインクリメンタルな学習設定のための新しいアクティブな学習フレームワークACILを提案する。
我々は、不確実性と多様性に基づく基準を利用して、各エピソードに注釈を付ける必要があるサンプルを特定する。
- 参考スコア(独自算出の注目度): 4.779196219827506
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual learning (or class incremental learning) is a realistic learning scenario for computer vision systems, where deep neural networks are trained on episodic data, and the data from previous episodes are generally inaccessible to the model. Existing research in this domain has primarily focused on avoiding catastrophic forgetting, which occurs due to the continuously changing class distributions in each episode and the inaccessibility of the data from previous episodes. However, these methods assume that all the training samples in every episode are annotated; this not only incurs a huge annotation cost, but also results in a wastage of annotation effort, since most of the samples in a given episode will not be accessible to the model in subsequent episodes. Active learning algorithms identify the salient and informative samples from large amounts of unlabeled data and are instrumental in reducing the human annotation effort in inducing a deep neural network. In this paper, we propose ACIL, a novel active learning framework for class incremental learning settings. We exploit a criterion based on uncertainty and diversity to identify the exemplar samples that need to be annotated in each episode, and will be appended to the data in the next episode. Such a framework can drastically reduce annotation cost and can also avoid catastrophic forgetting. Our extensive empirical analyses on several vision datasets corroborate the promise and potential of our framework against relevant baselines.
- Abstract(参考訳): 連続学習(英: Continual learning、またはクラスインクリメンタルラーニング)とは、コンピュータビジョンシステムにおける現実的な学習シナリオであり、ディープニューラルネットワークがエピソードデータに基づいて訓練され、以前のエピソードからのデータは一般的にモデルにはアクセスできない。
この領域の既存の研究は、各エピソードにおけるクラス分布の連続的な変化と、過去のエピソードのデータへのアクセス不能により生じる破滅的な忘れ込みを避けることに重点を置いている。
しかし、これらの手法は、各エピソードのすべてのトレーニングサンプルが注釈付けされていると仮定しており、これは巨大なアノテーションコストを発生させるだけでなく、特定のエピソードのサンプルのほとんどは、その後のエピソードでモデルにアクセスできないため、アノテーションの労力が無駄になる。
アクティブな学習アルゴリズムは、大量のラベルのないデータから有能で情報的なサンプルを特定し、ディープニューラルネットワークを誘導する人間のアノテーションの労力を減らすのに役立ちます。
本稿では,クラスインクリメンタル・ラーニング・セッティングのための新しいアクティブ・ラーニング・フレームワークACILを提案する。
我々は、不確実性と多様性に基づく基準を利用して、各エピソードに注釈を付ける必要がある模範サンプルを特定し、次のエピソードでデータに追加する。
このようなフレームワークは、アノテーションのコストを大幅に削減し、破滅的な忘れを避けることができる。
いくつかのビジョンデータセットに関する広範な実証分析は、我々のフレームワークの約束と可能性と、関連するベースラインとを相関させる。
関連論文リスト
- Learning from Neighbors: Category Extrapolation for Long-Tail Learning [62.30734737735273]
より粒度の細かいデータセットは、データの不均衡の影響を受けにくい傾向があります。
既存のクラスと視覚的に類似したオープンセット補助クラスを導入し、頭と尾の両方の表現学習を強化することを目的とした。
補助授業の圧倒的な存在がトレーニングを混乱させるのを防ぐために,近隣のサイレンシング障害を導入する。
論文 参考訳(メタデータ) (2024-10-21T13:06:21Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for Incremental Learning [93.90047628101155]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
これを解決するために、新しいタスク学習中に過去のタスクからのデータを再生する手法を提案する。
しかし、メモリの制約やデータプライバシーの問題により、実際には期待できない。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Contrastive Deep Encoding Enables Uncertainty-aware
Machine-learning-assisted Histopathology [6.548275341067594]
テラバイトのトレーニングデータを意識的に深層ネットワークにプリトレーニングして情報表現を符号化することができる。
提案手法は,ランダムに選択されたアノテーションが1~10%しかないパッチレベルの分類において,最先端のSOTA(State-of-the-art)に到達可能であることを示す。
論文 参考訳(メタデータ) (2023-09-13T17:37:19Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Bridging Non Co-occurrence with Unlabeled In-the-wild Data for
Incremental Object Detection [56.22467011292147]
物体検出における破滅的忘れを緩和するために,いくつかの漸進的学習法が提案されている。
有効性にもかかわらず、これらの手法は新規クラスのトレーニングデータにラベルのないベースクラスの共起を必要とする。
そこで本研究では,新たな授業の訓練において,欠落した基本クラスが原因で生じる非発生を補うために,未ラベルのインザ・ザ・ワイルドデータを使用することを提案する。
論文 参考訳(メタデータ) (2021-10-28T10:57:25Z) - Class-incremental Learning using a Sequence of Partial Implicitly
Regularized Classifiers [0.0]
クラス増分学習では、トレーニングデータ全体にアクセスすることなく、複数のクラスを順次学習することが目的である。
CIFAR100データセットの実験では、提案手法がSOTAの性能を大きなマージンで向上させることが示された。
論文 参考訳(メタデータ) (2021-04-04T10:02:45Z) - A generic ensemble based deep convolutional neural network for
semi-supervised medical image segmentation [7.141405427125369]
深層畳み込みニューラルネットワーク(DCNN)に基づく画像セグメンテーションのための汎用的な半教師付き学習フレームワークを提案する。
本手法は,ラベルなしデータを組み込むことで,完全教師付きモデル学習を超えて大幅に改善することができる。
論文 参考訳(メタデータ) (2020-04-16T23:41:50Z) - Confident Coreset for Active Learning in Medical Image Analysis [57.436224561482966]
本稿では,情報的サンプルを効果的に選択するための,不確実性と分散性を考慮した新しい能動的学習手法である信頼コアセットを提案する。
2つの医用画像解析タスクの比較実験により,本手法が他の活動的学習方法より優れていることを示す。
論文 参考訳(メタデータ) (2020-04-05T13:46:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。