論文の概要: Annotation-Free Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2511.19344v1
- Date: Mon, 24 Nov 2025 17:44:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.34917
- Title: Annotation-Free Class-Incremental Learning
- Title(参考訳): アノテーションのないクラスインクリメンタルラーニング
- Authors: Hari Chandana Kuchibhotla, K S Ananth, Vineeth N Balasubramanian,
- Abstract要約: 現実のシナリオでは、データはしばしば、アノテーションなしで連続的に届き、従来のアプローチは実用的ではない。
AFCILの下で効果的な学習を可能にするために,クロスドメイン世界ガイド型連続学習フレームワークであるCrossWorld CLを提案する。
- 参考スコア(独自算出の注目度): 25.64127772964619
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite significant progress in continual learning ranging from architectural novelty to clever strategies for mitigating catastrophic forgetting most existing methods rest on a strong but unrealistic assumption the availability of labeled data throughout the learning process. In real-world scenarios, however, data often arrives sequentially and without annotations, rendering conventional approaches impractical. In this work, we revisit the fundamental assumptions of continual learning and ask: Can current systems adapt when labels are absent and tasks emerge incrementally over time? To this end, we introduce Annotation-Free Class-Incremental Learning (AFCIL), a more realistic and challenging paradigm where unlabeled data arrives continuously, and the learner must incrementally acquire new classes without any supervision. To enable effective learning under AFCIL, we propose CrossWorld CL, a Cross Domain World Guided Continual Learning framework that incorporates external world knowledge as a stable auxiliary source. The method retrieves semantically related ImageNet classes for each downstream category, maps downstream and ImageNet features through a cross domain alignment strategy and finally introduce a novel replay strategy. This design lets the model uncover semantic structure without annotations while keeping earlier knowledge intact. Across four datasets, CrossWorld-CL surpasses CLIP baselines and existing continual and unlabeled learning methods, underscoring the benefit of world knowledge for annotation free continual learning.
- Abstract(参考訳): アーキテクチャのノベルティから、破滅的な方法を緩和するための巧妙な戦略まで、継続的な学習の著しい進歩にもかかわらず、既存の方法のほとんどは、学習プロセスを通してラベル付きデータの可用性を強く、非現実的に仮定している。
しかし、現実のシナリオでは、データはしばしばアノテーションなしで連続的に届き、従来のアプローチは実用的ではない。
この作業では、継続的学習の基本的な前提を再考し、次のように問います。 現在のシステムは、ラベルが欠如し、タスクが時間とともに漸進的に現れるときに適応できますか?
この目的のために,ラベルのないデータが継続的に到着する,より現実的で困難なパラダイムであるアノテーションフリーのクラスインクリメンタルラーニング(AFCIL)を導入する。
AFCILの下で効果的な学習を可能にするために,外部世界知識を安定した補助源として組み込んだクロスドメイン世界ガイド型連続学習フレームワークであるCrossWorld CLを提案する。
本手法は,各下流カテゴリに対して意味論的に関連付けられたImageNetクラスを検索し,ドメイン間のアライメント戦略を通じて下流とイメージNetの機能をマップし,最後に新しいリプレイ戦略を導入する。
この設計により、以前の知識をそのまま保ちながら、アノテーションなしでセマンティック構造を明らかにすることができる。
4つのデータセットにまたがって、CLIPベースラインと既存の継続学習とラベルなし学習メソッドを越え、アノテーションのない連続学習における世界知識のメリットを浮き彫りにしている。
関連論文リスト
- Exploiting the Semantic Knowledge of Pre-trained Text-Encoders for Continual Learning [63.48785461956983]
継続的な学習は、モデルが学習した知識を維持しながら、新しいデータから学習することを可能にする。
画像のラベル情報で利用できるセマンティック知識は、以前に取得したセマンティッククラスの知識と関連する重要なセマンティック情報を提供する。
テキスト埋め込みを用いて意味的類似性を把握し,タスク内およびタスク間のセマンティックガイダンスの統合を提案する。
論文 参考訳(メタデータ) (2024-08-02T07:51:44Z) - A Unified and General Framework for Continual Learning [58.72671755989431]
継続学習(CL)は、以前取得した知識を維持しながら、動的かつ変化するデータ分布から学ぶことに焦点を当てている。
正規化ベース、ベイズベース、メモリ再生ベースなど、破滅的な忘れ込みの課題に対処する様々な手法が開発されている。
本研究の目的は,既存の方法論を包含し,整理する包括的かつ包括的な枠組みを導入することで,このギャップを埋めることである。
論文 参考訳(メタデータ) (2024-03-20T02:21:44Z) - Infinite dSprites for Disentangled Continual Learning: Separating Memory Edits from Generalization [36.23065731463065]
Infinite dSpritesは任意の長さの連続的な分類ベンチマークを作成するための擬似ツールである。
この単純なベンチマークでは、十分に長い時間をかけて、全ての主要な連続学習手法の性能が低下していることが示される。
生成因子を直接監督した簡単な設定では、学習階級に依存しない変換が破滅的な忘れを回避できる方法を示している。
論文 参考訳(メタデータ) (2023-12-27T22:05:42Z) - From Categories to Classifiers: Name-Only Continual Learning by Exploring the Web [118.67589717634281]
継続的な学習はしばしば、非現実的に時間がかかり、実際にコストがかかるという仮定である、広範な注釈付きデータセットの可用性に依存します。
時間とコストの制約により手動のアノテーションが禁止される、名前のみの連続学習と呼ばれる新しいパラダイムを探求する。
提案手法は,広範かつ進化を続けるインターネットを活用して,未処理のウェブ教師付きデータを検索・ダウンロードして画像分類を行う。
論文 参考訳(メタデータ) (2023-11-19T10:43:43Z) - Learning to Learn for Few-shot Continual Active Learning [9.283518682371756]
継続的な学習は、新しいドメインで可塑性を示しながら、以前見たタスクを解く際の安定性を確保するために努力する。
連続学習の最近の進歩は、特にNLPドメインにおいて、主に教師付き学習環境に限られている。
我々はメタラーニングを活用し,メタコンチネンタルアクティブラーニングと呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2023-11-07T05:22:11Z) - Label-efficient Time Series Representation Learning: A Review [19.218833228063392]
ラベル効率のよい時系列表現学習は、現実世界のアプリケーションにディープラーニングモデルをデプロイするのに不可欠である。
ラベル付き時系列データの不足に対処するため、転送学習、自己教師付き学習、半教師付き学習など様々な戦略が開発されている。
既存のアプローチを,外部データソースへの依存に基づいて,ドメイン内あるいはクロスドメインとして分類する,新たな分類法を初めて導入する。
論文 参考訳(メタデータ) (2023-02-13T15:12:15Z) - Continual Learning From Unlabeled Data Via Deep Clustering [7.704949298975352]
継続的学習は、新しいタスクが到着するたびにモデルをスクラッチから再トレーニングするのではなく、少ない計算とメモリリソースを使って、新しいタスクをインクリメンタルに学習することを目的としている。
クラスタ割り当てから得られた擬似ラベルをモデル更新に用いて,教師なしモードで継続的学習を実現する新たなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-14T23:46:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。