論文の概要: Semantic-aware Knowledge Distillation for Few-Shot Class-Incremental
Learning
- arxiv url: http://arxiv.org/abs/2103.04059v1
- Date: Sat, 6 Mar 2021 08:07:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:42:09.276326
- Title: Semantic-aware Knowledge Distillation for Few-Shot Class-Incremental
Learning
- Title(参考訳): クラスインクリメンタル学習のための意味認識型知識蒸留
- Authors: Ali Cheraghian, Shafin Rahman, Pengfei Fang, Soumava Kumar Roy, Lars
Petersson, Mehrtash Harandi
- Abstract要約: 少数のショットクラスインクリメンタルラーニング(FSCIL)は、新しい概念を徐々に学習する問題を示しています。
FSCILの問題に対処するための蒸留アルゴリズムを導入し、トレーニング中に意味情報の活用を提案する。
- 参考スコア(独自算出の注目度): 32.52270964066876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot class incremental learning (FSCIL) portrays the problem of learning
new concepts gradually, where only a few examples per concept are available to
the learner. Due to the limited number of examples for training, the techniques
developed for standard incremental learning cannot be applied verbatim to
FSCIL. In this work, we introduce a distillation algorithm to address the
problem of FSCIL and propose to make use of semantic information during
training. To this end, we make use of word embeddings as semantic information
which is cheap to obtain and which facilitate the distillation process.
Furthermore, we propose a method based on an attention mechanism on multiple
parallel embeddings of visual data to align visual and semantic vectors, which
reduces issues related to catastrophic forgetting. Via experiments on
MiniImageNet, CUB200, and CIFAR100 dataset, we establish new state-of-the-art
results by outperforming existing approaches.
- Abstract(参考訳): FSCIL (Few-shot class incremental learning) は、新しい概念を徐々に学習する問題を表現しており、学習者には1つの概念の例がわずかに限られている。
トレーニングの例が限られているため、標準的なインクリメンタル学習のために開発された技術は、fscilには適用できない。
本研究では,FSCILの問題点に対処する蒸留アルゴリズムを導入し,トレーニング中に意味情報を活用することを提案する。
そのためには、単語埋め込みを意味情報として利用し、安価に取得でき、蒸留プロセスを容易にします。
さらに,視覚データの複数並列埋め込みに対する注意メカニズムに基づく手法を提案し,視覚的および意味的ベクトルを整列させ,壊滅的忘れに関する問題を低減する。
MiniImageNet, CUB200, CIFAR100データセットを用いた実験により, 既存の手法よりも優れた結果が得られた。
関連論文リスト
- Multi-Stage Knowledge Integration of Vision-Language Models for Continual Learning [79.46570165281084]
蒸留法における人間の学習過程をエミュレートするマルチステージ知識統合ネットワーク(MulKI)を提案する。
Mulkiは、イデオロギーの排除、新しいイデオロギーの追加、イデオロギーの排除、コネクティクスの作りという4つの段階を通じてこれを達成している。
提案手法は,下流タスク間の連続学習をサポートしながら,ゼロショット能力の維持における大幅な改善を示す。
論文 参考訳(メタデータ) (2024-11-11T07:36:19Z) - Subspace Distillation for Continual Learning [27.22147868163214]
本稿では,ニューラルネットワークの多様体構造を考慮した知識蒸留手法を提案する。
部分空間を用いたモデリングは、雑音に対するロバスト性など、いくつかの興味深い特性を提供することを示した。
実験により,提案手法は,いくつかの挑戦的データセットにおいて,様々な連続学習法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-07-31T05:59:09Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - Mitigating Forgetting in Online Continual Learning via Contrasting
Semantically Distinct Augmentations [22.289830907729705]
オンライン連続学習(OCL)は、非定常データストリームからモデル学習を可能とし、新たな知識を継続的に獲得し、学習した知識を維持することを目的としている。
主な課題は、"破滅的な忘れる"問題、すなわち、新しい知識を学習しながら学習した知識を十分に記憶できないことにある。
論文 参考訳(メタデータ) (2022-11-10T05:29:43Z) - Incremental Embedding Learning via Zero-Shot Translation [65.94349068508863]
現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
論文 参考訳(メタデータ) (2020-12-31T08:21:37Z) - Incremental Learning from Low-labelled Stream Data in Open-Set Video
Face Recognition [0.0]
本稿では,深層機能エンコーダとSVMのオープンセット動的アンサンブルを組み合わせた新しいインクリメンタル学習手法を提案する。
本手法は,教師なしの操作データを用いて認識性を向上させる。
結果は、非適応状態の方法に対する最大15%のF1スコア増加の利点を示しています。
論文 参考訳(メタデータ) (2020-12-17T13:28:13Z) - Information Theoretic Meta Learning with Gaussian Processes [74.54485310507336]
情報理論の概念,すなわち相互情報と情報のボトルネックを用いてメタ学習を定式化する。
相互情報に対する変分近似を用いることで、メタ学習のための汎用的かつトラクタブルな枠組みを導出する。
論文 参考訳(メタデータ) (2020-09-07T16:47:30Z) - Looking back to lower-level information in few-shot learning [4.873362301533825]
本稿では,隠れたニューラルネットワーク層の特徴埋め込みを低レベル支援情報として活用し,分類精度を向上させることを提案する。
筆者らは,MiniImageNet と tieredImageNet という2つの人気の数点学習データセットを用いた実験を行い,この手法がネットワークの低レベル情報を利用して最先端の分類性能を向上できることを示した。
論文 参考訳(メタデータ) (2020-05-27T20:32:13Z) - Few-Shot Class-Incremental Learning [68.75462849428196]
本稿では,FSCIL問題に焦点をあてる。
FSCIL は CNN モデルに対して,学習済みのクラスを忘れることなく,ラベル付きサンプルのごく少数から新たなクラスを漸進的に学習することを求めている。
我々は,異なるクラスで形成される特徴多様体のトポロジーを学習し,保存するニューラルネットワーク(NG)ネットワークを用いて,知識を表現する。
論文 参考訳(メタデータ) (2020-04-23T03:38:33Z) - Incremental Object Detection via Meta-Learning [77.55310507917012]
本稿では,段階的タスク間の情報を最適に共有するように,モデル勾配を再形成するメタラーニング手法を提案する。
既存のメタ学習法と比較して,本手法はタスク非依存であり,オブジェクト検出のための高容量モデルに新たなクラスやスケールを段階的に追加することができる。
論文 参考訳(メタデータ) (2020-03-17T13:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。