論文の概要: Generalized and Incremental Few-Shot Learning by Explicit Learning and
Calibration without Forgetting
- arxiv url: http://arxiv.org/abs/2108.08165v1
- Date: Wed, 18 Aug 2021 14:21:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-19 14:37:20.075354
- Title: Generalized and Incremental Few-Shot Learning by Explicit Learning and
Calibration without Forgetting
- Title(参考訳): 明示的学習と校正による一般・インクリメンタルFew-Shot学習
- Authors: Anna Kukleva, Hilde Kuehne, Bernt Schiele
- Abstract要約: これらの課題を明確かつ効果的に解決できる3段階のフレームワークを提案する。
提案手法を,画像とビデオの断片分類のための4つの挑戦的ベンチマークデータセット上で評価した。
- 参考スコア(独自算出の注目度): 86.56447683502951
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Both generalized and incremental few-shot learning have to deal with three
major challenges: learning novel classes from only few samples per class,
preventing catastrophic forgetting of base classes, and classifier calibration
across novel and base classes. In this work we propose a three-stage framework
that allows to explicitly and effectively address these challenges. While the
first phase learns base classes with many samples, the second phase learns a
calibrated classifier for novel classes from few samples while also preventing
catastrophic forgetting. In the final phase, calibration is achieved across all
classes. We evaluate the proposed framework on four challenging benchmark
datasets for image and video few-shot classification and obtain
state-of-the-art results for both generalized and incremental few shot
learning.
- Abstract(参考訳): 一般化された数ショット学習と漸進的な数ショット学習の両方が、クラス毎に少数のサンプルから新しいクラスを学ぶこと、ベースクラスの破滅的な忘れ込みを防ぐこと、新しいクラスとベースクラスをまたいだ分類器の校正という3つの大きな課題に対処する必要がある。
本研究では,これらの課題を明確かつ効果的に解決可能な3段階フレームワークを提案する。
第1フェーズは多くのサンプルでベースクラスを学習する一方で、第2フェーズは、少数のサンプルから新しいクラスの校正分類を学習し、破滅的な忘れ込みを防ぐ。
最終段階では、全てのクラスでキャリブレーションが行われる。
提案手法は,画像と映像のマイナショット分類のための4つの難解なベンチマークデータセット上で評価し,一般化およびインクリメンタルなショット学習のための最新結果を得た。
関連論文リスト
- Covariance-based Space Regularization for Few-shot Class Incremental Learning [25.435192867105552]
FSCIL(Few-shot Class Incremental Learning)では,ラベル付きデータに制限のあるクラスを継続的に学習する必要がある。
インクリメンタルセッションにおける限られたデータのため、モデルは新しいクラスを過度に適合させ、ベースクラスの破滅的な忘れを苦しむ傾向にある。
最近の進歩は、基本クラス分布を制約し、新しいクラスの識別的表現を学習するプロトタイプベースのアプローチに頼っている。
論文 参考訳(メタデータ) (2024-11-02T08:03:04Z) - Liberating Seen Classes: Boosting Few-Shot and Zero-Shot Text Classification via Anchor Generation and Classification Reframing [38.84431954053434]
短いショットとゼロショットのテキスト分類は、ラベル付きサンプルやラベル付きサンプルが全くない新しいクラスからのサンプルを認識することを目的としている。
少数ショットとゼロショットのテキスト分類のためのシンプルで効果的な戦略を提案する。
論文 参考訳(メタデータ) (2024-05-06T15:38:32Z) - Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration [67.69532794049445]
既存のメソッドでは、新しいクラスのサンプルをベースクラスに誤分類する傾向があり、新しいクラスのパフォーマンスが低下する。
我々は,新しいクラスの識別性を高めるため,簡易かつ効果的なトレーニング-フレア・カロブラシアン (TEEN) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-08T18:24:08Z) - Neural Collapse Terminus: A Unified Solution for Class Incremental
Learning and Its Variants [166.916517335816]
本稿では,3つの課題における不整合ジレンマに対する統一解を提案する。
ラベル空間全体の最大等角的クラス間分離を有する固定構造である神経崩壊終端を提案する。
本手法は,データ不均衡やデータ不足にかかわらず,神経崩壊最適度を漸進的に保持する。
論文 参考訳(メタデータ) (2023-08-03T13:09:59Z) - S3C: Self-Supervised Stochastic Classifiers for Few-Shot
Class-Incremental Learning [22.243176199188238]
FSCIL(Few-shot class-incremental Learning)は、既に学習済みのクラスについての知識を忘れずに、ラベル付きサンプルがほとんどない新しいクラスについて徐々に学習することを目的としている。
FSCILには2つの大きな課題がある: (i) 限られたデータ量のために新しいクラスに過度に適合すること、 (ii) 段階的にこれらのクラスからのデータが利用できないために古いクラスを破滅的に忘れること。
論文 参考訳(メタデータ) (2023-07-05T12:41:46Z) - Class-Incremental Learning with Strong Pre-trained Models [97.84755144148535]
CIL(Class-incremental Learning)は、少数のクラス(ベースクラス)から始まる設定で広く研究されている。
我々は、多数のベースクラスで事前訓練された強力なモデルから始まるCILの実証済み実世界の設定について検討する。
提案手法は、解析されたCIL設定すべてに頑健で一般化されている。
論文 参考訳(メタデータ) (2022-04-07T17:58:07Z) - Generalized Few-Shot Semantic Segmentation: All You Need is Fine-Tuning [35.51193811629467]
一般化された少数ショットセマンティックセマンティックセマンティクスは、新規クラスの少数ショットセマンティクスモデルのみを評価することを超えて導入された。
現在、すべてのアプローチはメタラーニングに基づいていますが、わずか数枚のショットを観察した後、学習が不十分で飽和しています。
提案手法は,2つのデータセットに対して最先端の処理結果を達成しつつ,飽和問題に対処できることを実証するものである。
論文 参考訳(メタデータ) (2021-12-21T04:44:57Z) - Bridging Non Co-occurrence with Unlabeled In-the-wild Data for
Incremental Object Detection [56.22467011292147]
物体検出における破滅的忘れを緩和するために,いくつかの漸進的学習法が提案されている。
有効性にもかかわらず、これらの手法は新規クラスのトレーニングデータにラベルのないベースクラスの共起を必要とする。
そこで本研究では,新たな授業の訓練において,欠落した基本クラスが原因で生じる非発生を補うために,未ラベルのインザ・ザ・ワイルドデータを使用することを提案する。
論文 参考訳(メタデータ) (2021-10-28T10:57:25Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - Shot in the Dark: Few-Shot Learning with No Base-Class Labels [32.96824710484196]
市販の自己教師型学習は,MiniImageNet上での5ショット精度において,トランスダクティブな数ショット法を3.9%向上させることを示した。
このことは、数発の学習において、自己監督を通じて学んだ機能の役割をより慎重に調べる動機となります。
論文 参考訳(メタデータ) (2020-10-06T02:05:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。