論文の概要: Buffer-free Class-Incremental Learning with Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2505.23412v1
- Date: Thu, 29 May 2025 13:01:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.858
- Title: Buffer-free Class-Incremental Learning with Out-of-Distribution Detection
- Title(参考訳): アウト・オブ・ディストリビューション検出によるバッファフリーなクラスインクリメンタル学習
- Authors: Srishti Gupta, Daniele Angioni, Maura Pintor, Ambra Demontis, Lea Schönherr, Battista Biggio, Fabio Roli,
- Abstract要約: クラスインクリメンタルラーニング(CIL)は、オープンワールドシナリオにおいて大きな課題となる。
本稿では,ポストホックOOD検出手法の詳細な解析を行い,メモリバッファの必要性を解消する可能性について検討する。
このバッファフリー手法は,クラスインクリメンタル学習と未知サンプルの拒絶という両面において,バッファベースの手法と同等あるいは優れた性能が得られることを示す。
- 参考スコア(独自算出の注目度): 18.706435793435094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Class-incremental learning (CIL) poses significant challenges in open-world scenarios, where models must not only learn new classes over time without forgetting previous ones but also handle inputs from unknown classes that a closed-set model would misclassify. Recent works address both issues by (i)~training multi-head models using the task-incremental learning framework, and (ii) predicting the task identity employing out-of-distribution (OOD) detectors. While effective, the latter mainly relies on joint training with a memory buffer of past data, raising concerns around privacy, scalability, and increased training time. In this paper, we present an in-depth analysis of post-hoc OOD detection methods and investigate their potential to eliminate the need for a memory buffer. We uncover that these methods, when applied appropriately at inference time, can serve as a strong substitute for buffer-based OOD detection. We show that this buffer-free approach achieves comparable or superior performance to buffer-based methods both in terms of class-incremental learning and the rejection of unknown samples. Experimental results on CIFAR-10, CIFAR-100 and Tiny ImageNet datasets support our findings, offering new insights into the design of efficient and privacy-preserving CIL systems for open-world settings.
- Abstract(参考訳): クラス増分学習(Class-incremental Learning, CIL)は、オープンワールドシナリオにおいて、モデルが以前のクラスを忘れずに新しいクラスを学習するだけでなく、クローズドセットモデルが誤って分類する未知のクラスからのインプットも扱わなければならない、という大きな課題を提起する。
最近の研究は両方の問題に対処している
(i)タスクインクリメンタル学習フレームワークを用いたマルチヘッドモデルのトレーニング
二 配当外検知器(OOD)を用いたタスクアイデンティティの予測
有効ではあるが、後者は主として過去のデータのメモリバッファとのジョイントトレーニングに依存しており、プライバシやスケーラビリティ、トレーニング時間の増加に関する懸念が高まっている。
本稿では,ポストホックOOD検出手法の詳細な解析を行い,メモリバッファの必要性を解消する可能性について検討する。
我々は,これらの手法が推定時に適切に適用された場合,バッファベースのOOD検出の強力な代用として機能することを発見した。
このバッファフリー手法は,クラスインクリメンタル学習と未知サンプルの拒絶という両面において,バッファベースの手法と同等あるいは優れた性能が得られることを示す。
CIFAR-10, CIFAR-100, Tiny ImageNetデータセットによる実験結果が, オープンワールド設定のための効率的かつプライバシー保護のCILシステムの設計に関する新たな知見を提供する。
関連論文リスト
- Adaptive Retention & Correction: Test-Time Training for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - I2CANSAY:Inter-Class Analogical Augmentation and Intra-Class Significance Analysis for Non-Exemplar Online Task-Free Continual Learning [42.608860809847236]
オンラインタスクフリー連続学習(OTFCL)は、継続学習のより困難なバリエーションである。
既存のメソッドは、忘れるのを防ぐために古いサンプルで構成されたメモリバッファに依存している。
我々は,メモリバッファへの依存をなくし,ワンショットサンプルから新しいデータの知識を効率的に学習するI2CANSAYという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-21T08:28:52Z) - Class-Wise Buffer Management for Incremental Object Detection: An
Effective Buffer Training Strategy [11.109975137910881]
クラスインクリメンタル学習は、既存のモデルに目に見えないクラスインスタンスを継続的に追加する際に発生する問題を解決することを目的としている。
オブジェクト検出に最適化されたリプレイバッファを生成する効果的なバッファトレーニング戦略(eBTS)を導入する。
論文 参考訳(メタデータ) (2023-12-14T17:10:09Z) - Large Class Separation is not what you need for Relational
Reasoning-based OOD Detection [12.578844450586]
Out-Of-Distribution (OOD) 検出法はセマンティックノベルティを識別して解を提供する。
これらの手法の多くは、既知のデータの学習段階を利用しており、これは正規性の概念を捉えるためのモデル(または微調整)を訓練することを意味する。
実行可能な代替手段は、大きな事前訓練されたモデルによって生成された埋め込み空間の類似性を評価することであり、それ以上の学習は行わない。
論文 参考訳(メタデータ) (2023-07-12T14:10:15Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - A Memory Transformer Network for Incremental Learning [64.0410375349852]
本研究では,モデルが学習する時間とともに,新しいデータクラスが観察される学習環境であるクラスインクリメンタルラーニングについて検討する。
素直な問題定式化にもかかわらず、クラス増分学習への分類モデルの素直な適用は、これまで見られたクラスの「破滅的な忘れ込み」をもたらす。
これは、過去のデータのサブセットをメモリバンクに保存し、将来のタスクをトレーニングする際の忘れの防止にそれを活用することで、破滅的な忘れの問題を克服するものだ。
論文 参考訳(メタデータ) (2022-10-10T08:27:28Z) - Towards Generalized and Incremental Few-Shot Object Detection [9.033533653482529]
新規なインクリメンタルFew-Shot Object Detection (iFSOD) 法を提案する。
具体的には、ベースクラスと新規クラスの特徴表現を分離するために、DBF(Double-Branch Framework)を提案する。
我々はPascal VOCとMS-COCOの両方で実験を行い、この手法がインクリメンタル・ショット検出の問題を効果的に解決できることを実証した。
論文 参考訳(メタデータ) (2021-09-23T12:38:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。