論文の概要: Prototypical quadruplet for few-shot class incremental learning
- arxiv url: http://arxiv.org/abs/2211.02947v3
- Date: Sat, 8 Apr 2023 09:16:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 21:30:03.427551
- Title: Prototypical quadruplet for few-shot class incremental learning
- Title(参考訳): 数ショットクラスインクリメンタルラーニングのためのプロトタイプ四脚
- Authors: Sanchar Palit, Biplab Banerjee, Subhasis Chaudhuri
- Abstract要約: 改良されたコントラスト損失を用いて,より優れた埋め込み空間を同定し,分類ロバスト性を向上させる手法を提案する。
我々のアプローチは、新しいクラスで訓練された場合でも、埋め込み空間で以前獲得した知識を保っている。
提案手法の有効性は,新しいクラスでモデルを訓練した後,組込み空間がそのままであることを示すとともに,各セッションの精度で既存の最先端アルゴリズムより優れていることを示すことで実証する。
- 参考スコア(独自算出の注目度): 24.814045065163135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scarcity of data and incremental learning of new tasks pose two major
bottlenecks for many modern computer vision algorithms. The phenomenon of
catastrophic forgetting, i.e., the model's inability to classify previously
learned data after training with new batches of data, is a major challenge.
Conventional methods address catastrophic forgetting while compromising the
current session's training. Generative replay-based approaches, such as
generative adversarial networks (GANs), have been proposed to mitigate
catastrophic forgetting, but training GANs with few samples may lead to
instability. To address these challenges, we propose a novel method that
improves classification robustness by identifying a better embedding space
using an improved contrasting loss. Our approach retains previously acquired
knowledge in the embedding space, even when trained with new classes, by
updating previous session class prototypes to represent the true class mean,
which is crucial for our nearest class mean classification strategy. We
demonstrate the effectiveness of our method by showing that the embedding space
remains intact after training the model with new classes and outperforms
existing state-of-the-art algorithms in terms of accuracy across different
sessions.
- Abstract(参考訳): データ不足と新しいタスクのインクリメンタルな学習は多くの現代のコンピュータビジョンアルゴリズムにとって2つの大きなボトルネックとなる。
破滅的な忘れの現象、すなわち、新しいデータのバッチでトレーニングした後に学習したデータを分類できないことは大きな課題である。
従来の方法は、現在のセッションのトレーニングを妥協しながら破滅的な忘れに対処する。
生成的敵ネットワーク(GAN)のような生成的リプレイに基づくアプローチは、破滅的な忘れを緩和するために提案されているが、少数のサンプルでGANを訓練すると不安定になる可能性がある。
これらの課題に対処するために,コントラスト損失の改善を用いた埋め込み空間の同定により,分類ロバスト性を向上させる新しい手法を提案する。
提案手法は,従来のクラスの平均値を表すために,従来のセッションクラスプロトタイプを更新することで,新しいクラスで訓練しても,埋め込み空間において獲得した知識を維持している。
本手法の有効性は,新しいクラスでモデルを訓練した後,組込み空間がそのまま維持されることを示し,各セッションの精度で既存の最先端アルゴリズムより優れていることを示す。
関連論文リスト
- Bayesian Learning-driven Prototypical Contrastive Loss for Class-Incremental Learning [42.14439854721613]
本稿では,クラス増分学習シナリオに特化して,ベイズ学習駆動型コントラスト損失(BLCL)を持つプロトタイプネットワークを提案する。
提案手法は,ベイズ学習手法を用いて,クロスエントロピーとコントラスト損失関数のバランスを動的に適用する。
論文 参考訳(メタデータ) (2024-05-17T19:49:02Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Segue: Side-information Guided Generative Unlearnable Examples for
Facial Privacy Protection in Real World [64.4289385463226]
生成不可能な例としては、Segue: Side-information guided Generative unlearnable Exampleを提案する。
転送性を向上させるために,真のラベルや擬似ラベルなどの側面情報を導入する。
JPEG圧縮、敵対的トレーニング、およびいくつかの標準的なデータ拡張に抵抗することができる。
論文 参考訳(メタデータ) (2023-10-24T06:22:37Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Continual Learning with Pretrained Backbones by Tuning in the Input
Space [44.97953547553997]
ディープラーニングモデルを非定常環境に適用することの本質的な困難さは、ニューラルネットワークの実際のタスクへの適用性を制限している。
ネットワークの事前学習部分の更新を回避し、通常の分類ヘッドだけでなく、新たに導入した学習可能なパラメータのセットも学習することで、微調整手順をより効果的にするための新しい戦略を提案する。
論文 参考訳(メタデータ) (2023-06-05T15:11:59Z) - Prototype-Sample Relation Distillation: Towards Replay-Free Continual
Learning [14.462797749666992]
本稿では,表現とクラスプロトタイプを共同で学習するための総合的なアプローチを提案する。
本稿では,新しいタスクデータと比較して,クラスプロトタイプの相対的類似性を維持することを制約する新しい蒸留損失を提案する。
この手法はタスクインクリメンタル設定における最先端性能を得る。
論文 参考訳(メタデータ) (2023-03-26T16:35:45Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Continual Semantic Segmentation via Repulsion-Attraction of Sparse and
Disentangled Latent Representations [18.655840060559168]
本稿では,セマンティックセグメンテーションにおけるクラス連続学習に着目した。
新しいカテゴリは時間とともに利用可能になり、以前のトレーニングデータは保持されない。
提案された連続学習スキームは、潜在空間を形作り、新しいクラスの認識を改善しながら忘れを減らす。
論文 参考訳(メタデータ) (2021-03-10T21:02:05Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - Incremental Embedding Learning via Zero-Shot Translation [65.94349068508863]
現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
論文 参考訳(メタデータ) (2020-12-31T08:21:37Z) - Learning Adaptive Embedding Considering Incremental Class [55.21855842960139]
CIL(Class-Incremental Learning)は,未知のクラスを逐次生成するストリーミングデータを用いて,信頼性の高いモデルをトレーニングすることを目的としている。
従来のクローズドセット学習とは異なり、CILには2つの大きな課題がある。
新たなクラスが検出された後、以前のデータ全体を使用して再トレーニングすることなく、モデルを更新する必要がある。
論文 参考訳(メタデータ) (2020-08-31T04:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。