論文の概要: Memorizing Complementation Network for Few-Shot Class-Incremental
Learning
- arxiv url: http://arxiv.org/abs/2208.05610v1
- Date: Thu, 11 Aug 2022 02:32:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-12 12:48:19.307527
- Title: Memorizing Complementation Network for Few-Shot Class-Incremental
Learning
- Title(参考訳): クラスインクリメンタル学習のための補足ネットワークの記憶
- Authors: Zhong Ji, Zhishen Hou, Xiyao Liu, Yanwei Pang, Xuelong Li
- Abstract要約: 本稿では,新しいタスクにおいて,異なる記憶された知識を補う複数のモデルをアンサンブルするために,MCNet(Memorizing Complementation Network)を提案する。
原型スムージング・ハードマイニング・トリプルト(PSHT)の損失を現時点の課題だけでなく,従来の分布からも引き離すために開発した。
- 参考スコア(独自算出の注目度): 109.4206979528375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot Class-Incremental Learning (FSCIL) aims at learning new concepts
continually with only a few samples, which is prone to suffer the catastrophic
forgetting and overfitting problems. The inaccessibility of old classes and the
scarcity of the novel samples make it formidable to realize the trade-off
between retaining old knowledge and learning novel concepts. Inspired by that
different models memorize different knowledge when learning novel concepts, we
propose a Memorizing Complementation Network (MCNet) to ensemble multiple
models that complements the different memorized knowledge with each other in
novel tasks. Additionally, to update the model with few novel samples, we
develop a Prototype Smoothing Hard-mining Triplet (PSHT) loss to push the novel
samples away from not only each other in current task but also the old
distribution. Extensive experiments on three benchmark datasets, e.g.,
CIFAR100, miniImageNet and CUB200, have demonstrated the superiority of our
proposed method.
- Abstract(参考訳): FSCIL(Few-shot Class-Incremental Learning)は、少数のサンプルで新しい概念を継続的に学習することを目的としている。
古いクラスが使えないことや、新しいサンプルが不足していることは、古い知識の保持と新しい概念の学習のトレードオフを実現するのに役立ちます。
異なるモデルが新しい概念を学ぶ際に異なる知識を記憶することに触発され、異なる記憶された知識を新しいタスクで補完する複数のモデルを統合するための記憶補完ネットワーク(mcnet)を提案する。
さらに, 新規なサンプル数が少ないモデルを更新するために, 現行のタスクだけでなく, 古い分布からも新しいサンプルを遠ざけるために, ハードマイニング・トリプルト (psht) 損失を平滑化するプロトタイプを開発した。
CIFAR100, miniImageNet, CUB200 の3つのベンチマークデータセットに対する大規模な実験により,提案手法の優位性を実証した。
関連論文リスト
- Adaptive Discovering and Merging for Incremental Novel Class Discovery [37.54881512688964]
我々は、段階的に新しいカテゴリを適応的に発見するために、Adaptive Discovering and Merging(ADM)と呼ばれる新しいパラダイムを導入する。
私たちのAMMは、破滅的な忘れの問題を軽減することで、クラスインクリメンタルラーニング(クラスインクリメンタルラーニング)のタスクにも役立ちます。
論文 参考訳(メタデータ) (2024-03-06T00:17:03Z) - Learning Prompt with Distribution-Based Feature Replay for Few-Shot Class-Incremental Learning [56.29097276129473]
分散型特徴再現(LP-DiF)を用いた学習プロンプト(Learning Prompt)という,シンプルで効果的なフレームワークを提案する。
新しいセッションでは,学習可能なプロンプトが古い知識を忘れないようにするため,擬似機能的リプレイ手法を提案する。
新しいセッションに進むと、古いクラスのディストリビューションと現在のセッションのトレーニングイメージを組み合わせて擬似フィーチャーをサンプリングして、プロンプトを最適化する。
論文 参考訳(メタデータ) (2024-01-03T07:59:17Z) - TLCE: Transfer-Learning Based Classifier Ensembles for Few-Shot
Class-Incremental Learning [5.753740302289126]
FSCIL(Few-shot class-incremental Learning)は、いくつかの例から新しいクラスを段階的に認識するのに苦労する。
本稿では,新しいクラスと古いクラスの分離を改善するために,複数の事前学習モデルをアンサンブルするTLCEを提案する。
論文 参考訳(メタデータ) (2023-12-07T11:16:00Z) - MINI: Mining Implicit Novel Instances for Few-Shot Object Detection [73.5061386065382]
Mining Implicit Novel Instances (MINI)は、暗黙の新規インスタンスを補助的なトレーニングサンプルとしてマイニングするための新しいフレームワークである。
MINIは、どのショットやスプリットでも、最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-05-06T17:26:48Z) - Few-Shot Class-Incremental Learning by Sampling Multi-Phase Tasks [59.12108527904171]
モデルは新しいクラスを認識し、古いクラスに対する差別性を維持すべきである。
古いクラスを忘れずに新しいクラスを認識するタスクは、FSCIL ( few-shot class-incremental Learning) と呼ばれる。
我々は,LearnIng Multi-phase Incremental Tasks (LIMIT) によるメタラーニングに基づくFSCILの新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-03-31T13:46:41Z) - Online Deep Metric Learning via Mutual Distillation [9.363111089877625]
ディープ・メトリック・ラーニング(Deep metric learning)は、入力データを埋め込み空間に変換することを目的としており、類似したサンプルが近接し、異種サンプルが互いに遠く離れている。
既存のソリューションは、スクラッチからモデルをリトレーニングするか、トレーニング中に古いサンプルをリプレイする必要がある。
本稿では, 複数タスクシナリオの相互蒸留に基づくオンライン深度学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-10T07:24:36Z) - Unsupervised Transfer Learning for Spatiotemporal Predictive Networks [90.67309545798224]
我々は、教師なし学習されたモデルの動物園から別のネットワークへ知識を伝達する方法を研究する。
私たちのモチベーションは、モデルは異なるソースからの複雑なダイナミクスを理解することが期待されていることです。
提案手法は,時間的予測のための3つのベンチマークで大幅に改善され,重要度が低いベンチマークであっても,ターゲットのメリットが得られた。
論文 参考訳(メタデータ) (2020-09-24T15:40:55Z) - Few-Shot Class-Incremental Learning [68.75462849428196]
本稿では,FSCIL問題に焦点をあてる。
FSCIL は CNN モデルに対して,学習済みのクラスを忘れることなく,ラベル付きサンプルのごく少数から新たなクラスを漸進的に学習することを求めている。
我々は,異なるクラスで形成される特徴多様体のトポロジーを学習し,保存するニューラルネットワーク(NG)ネットワークを用いて,知識を表現する。
論文 参考訳(メタデータ) (2020-04-23T03:38:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。