論文の概要: Evolving Dictionary Representation for Few-shot Class-incremental
Learning
- arxiv url: http://arxiv.org/abs/2305.01885v1
- Date: Wed, 3 May 2023 04:30:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-04 16:00:24.696660
- Title: Evolving Dictionary Representation for Few-shot Class-incremental
Learning
- Title(参考訳): 授業増分学習のための進化辞書表現
- Authors: Xuejun Han, Yuhong Guo
- Abstract要約: 数発クラス増分学習(FSCIL)という,挑戦的で実践的な連続学習シナリオに取り組む。
FSCILでは、ラベル付きデータはベースセッションでクラスに対して与えられるが、新しいインクリメンタルクラスでは非常に限定されたラベル付きインスタンスが利用できる。
本稿では,辞書学習と視覚表現学習を組み合わせたハイブリッド学習アーキテクチャであるディープ辞書学習を提案する。
- 参考スコア(独自算出の注目度): 34.887690018011675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: New objects are continuously emerging in the dynamically changing world and a
real-world artificial intelligence system should be capable of continual and
effectual adaptation to new emerging classes without forgetting old ones. In
view of this, in this paper we tackle a challenging and practical continual
learning scenario named few-shot class-incremental learning (FSCIL), in which
labeled data are given for classes in a base session but very limited labeled
instances are available for new incremental classes. To address this problem,
we propose a novel and succinct approach by introducing deep dictionary
learning which is a hybrid learning architecture that combines dictionary
learning and visual representation learning to provide a better space for
characterizing different classes. We simultaneously optimize the dictionary and
the feature extraction backbone in the base session, while only finetune the
dictionary in the incremental session for adaptation to novel classes, which
can alleviate the forgetting on base classes compared to finetuning the entire
model. To further facilitate future adaptation, we also incorporate multiple
pseudo classes into the base session training so that certain space projected
by dictionary can be reserved for future new concepts. The extensive
experimental results on CIFAR100, miniImageNet and CUB200 validate the
effectiveness of our approach compared to other SOTA methods.
- Abstract(参考訳): 新しいオブジェクトは、動的に変化する世界で継続的に出現しており、現実世界の人工知能システムは、古いものを忘れずに、新しい新興クラスに継続的に、効果的に適応できるべきである。
そこで,本稿では,基礎セッションのクラスに対してラベル付きデータが付与されるが,新しいインクリメンタルクラスではラベル付きインスタンスが非常に限定される,マイショットクラスインクリメンタルラーニング(fscil)という,挑戦的で実践的な連続学習シナリオに挑戦する。
この問題に対処するために,辞書学習と視覚表現学習を組み合わせたハイブリッド学習アーキテクチャであるディープ辞書学習を導入し,異なるクラスを特徴付けるためのより良い空間を提供する,新規かつ簡潔なアプローチを提案する。
ベースセッションにおける辞書と特徴抽出のバックボーンを同時に最適化すると同時に,新規クラスへの適応のためのインクリメンタルセッションにおいてのみ辞書を微調整する。
さらに,複数の疑似クラスをベースセッショントレーニングに組み込んで,辞書に投影された特定の空間を新たな概念のために予約できるようにした。
CIFAR100, miniImageNet, CUB200における実験結果から, 他のSOTA法と比較して, 提案手法の有効性が検証された。
関連論文リスト
- Few Shot Class Incremental Learning using Vision-Language models [24.930246674021525]
本研究では,言語正規化器と部分空間正規化器を利用する,革新的な数ショットクラスインクリメンタルラーニング(FSCIL)フレームワークを提案する。
提案するフレームワークは,限られたデータを持つ新しいクラスをモデルに導入するだけでなく,ベースクラスのパフォーマンスの維持も保証する。
論文 参考訳(メタデータ) (2024-05-02T06:52:49Z) - Expandable Subspace Ensemble for Pre-Trained Model-Based Class-Incremental Learning [65.57123249246358]
PTMベースのCILのためのExpAndable Subspace Ensemble (EASE)を提案する。
タスク固有のサブスペースを作成することを目的として、新しいタスクごとに異なる軽量アダプタモジュールをトレーニングする。
我々のプロトタイプ補完戦略は、古いクラスのインスタンスを使わずに、古いクラスの新機能を合成します。
論文 参考訳(メタデータ) (2024-03-18T17:58:13Z) - Continuously Learning New Words in Automatic Speech Recognition [56.972851337263755]
本稿では,新たな単語認識のための自己教師付き連続学習手法を提案する。
過去の研究から,メモリ拡張型自動音声認識モデルを用いた。
提案手法により,新たな単語の出現頻度が高くなると,新たな単語のパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2024-01-09T10:39:17Z) - Learning to Name Classes for Vision and Language Models [57.0059455405424]
大規模な視覚と言語モデルは、クラス固有のテキストクエリを画像コンテンツにマッピングすることで、印象的なゼロショット認識性能を達成することができる。
視覚的コンテンツの機能として,各クラスに対して最適な単語埋め込みを学習するために,利用可能なデータを活用することを提案する。
凍結したモデルに新しい単語の埋め込みを学習することで、新しいクラスに対してゼロショットの能力を保ち、新しいデータセットにモデルを適応しやすくし、潜在的に誤った、非記述的、曖昧なクラス名を調整することができる。
論文 参考訳(メタデータ) (2023-04-04T14:34:44Z) - Improving Feature Generalizability with Multitask Learning in Class
Incremental Learning [12.632121107536843]
キーワードスポッティングのような多くのディープラーニングアプリケーションは、クラスインクリメンタルラーニング(CIL)と呼ばれる新しい概念(クラス)を時間とともに組み込む必要がある。
CILの最大の課題は、破滅的な忘れ、すなわち、新しいタスクを学習しながら可能な限り多くの古い知識を保存することである。
本稿では,基本モデルトレーニング中のマルチタスク学習による特徴一般化性の向上を提案する。
提案手法は,平均漸進的学習精度を最大5.5%向上させ,時間とともにより信頼性が高く正確なキーワードスポッティングを可能にする。
論文 参考訳(メタデータ) (2022-04-26T07:47:54Z) - Few-Shot Class-Incremental Learning by Sampling Multi-Phase Tasks [59.12108527904171]
モデルは新しいクラスを認識し、古いクラスに対する差別性を維持すべきである。
古いクラスを忘れずに新しいクラスを認識するタスクは、FSCIL ( few-shot class-incremental Learning) と呼ばれる。
我々は,LearnIng Multi-phase Incremental Tasks (LIMIT) によるメタラーニングに基づくFSCILの新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-03-31T13:46:41Z) - Better Language Model with Hypernym Class Prediction [101.8517004687825]
クラスベース言語モデル (LM) は、コンテキストの疎結合に$n$-gramのLMで対処するために長年開発されてきた。
本研究では,このアプローチをニューラルLMの文脈で再考する。
論文 参考訳(メタデータ) (2022-03-21T01:16:44Z) - Novel Class Discovery in Semantic Segmentation [104.30729847367104]
セマンティックにおける新しいクラス発見(NCDSS)について紹介する。
ラベル付き非結合クラスの集合から事前の知識を与えられた新しいクラスを含むラベル付きイメージのセグメンテーションを目的としている。
NCDSSでは、オブジェクトと背景を区別し、画像内の複数のクラスの存在を処理する必要があります。
本稿では,エントロピーに基づく不確実性モデリングと自己学習(EUMS)フレームワークを提案し,ノイズの多い擬似ラベルを克服する。
論文 参考訳(メタデータ) (2021-12-03T13:31:59Z) - Few-Shot Incremental Learning with Continually Evolved Classifiers [46.278573301326276]
Few-shot Class-Incremental Learning(FSCIL)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムの設計を目指している。
難点は、新しいクラスからの限られたデータが、重大な過度な問題を引き起こすだけでなく、破滅的な忘れの問題も悪化させることにある。
我々は,適応のための分類器間のコンテキスト情報を伝達するグラフモデルを用いた連続進化型cif(cec)を提案する。
論文 参考訳(メタデータ) (2021-04-07T10:54:51Z) - Deep Semantic Dictionary Learning for Multi-label Image Classification [3.3989824361632337]
本稿では,辞書学習課題であるマルチラベル画像分類の解法に向けて,革新的な方法を提案する。
Deep Semantic Dictionary Learning(DSDL)という新しいエンドツーエンドモデルが設計されている。
コードとモデルを公開しました。
論文 参考訳(メタデータ) (2020-12-23T06:22:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。