論文の概要: A Strong Baseline for Semi-Supervised Incremental Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2110.11128v3
- Date: Wed, 30 Oct 2024 12:27:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:23:05.436491
- Title: A Strong Baseline for Semi-Supervised Incremental Few-Shot Learning
- Title(参考訳): 半教師付きインクリメンタルFew-Shot学習のための強力なベースライン
- Authors: Linglan Zhao, Dashan Guo, Yunlu Xu, Liang Qiao, Zhanzhan Cheng, Shiliang Pu, Yi Niu, Xiangzhong Fang,
- Abstract要約: 少ないショット学習は、限られたトレーニングサンプルを持つ新しいクラスに一般化するモデルを学ぶことを目的としている。
本研究では,(1)信頼できない擬似ラベルによる基本クラスと新クラスのあいまいさを緩和する高度に設計されたメタトレーニングアルゴリズム,(2)ラベルの少ないデータとラベルなしデータを用いて基礎知識を保ちながら,新クラスの識別的特徴を学習するモデル適応機構を提案する。
- 参考スコア(独自算出の注目度): 54.617688468341704
- License:
- Abstract: Few-shot learning (FSL) aims to learn models that generalize to novel classes with limited training samples. Recent works advance FSL towards a scenario where unlabeled examples are also available and propose semi-supervised FSL methods. Another line of methods also cares about the performance of base classes in addition to the novel ones and thus establishes the incremental FSL scenario. In this paper, we generalize the above two under a more realistic yet complex setting, named by Semi-Supervised Incremental Few-Shot Learning (S2 I-FSL). To tackle the task, we propose a novel paradigm containing two parts: (1) a well-designed meta-training algorithm for mitigating ambiguity between base and novel classes caused by unreliable pseudo labels and (2) a model adaptation mechanism to learn discriminative features for novel classes while preserving base knowledge using few labeled and all the unlabeled data. Extensive experiments on standard FSL, semi-supervised FSL, incremental FSL, and the firstly built S2 I-FSL benchmarks demonstrate the effectiveness of our proposed method.
- Abstract(参考訳): FSL(Few-shot Learning)は、限られたトレーニングサンプルを持つ新しいクラスに一般化するモデルを学ぶことを目的としている。
最近の研究は、ラベルのない例も利用できるシナリオに向けてFSLを前進させ、半教師付きFSL法を提案する。
別のメソッドの行は、新しいものに加えて、ベースクラスのパフォーマンスも気にし、インクリメンタルなFSLシナリオを確立します。
本稿では,S2 I-FSL(Semi-Supervised Few-Shot Learning)と命名された,より現実的で複雑な環境下で,上記の2つを一般化する。
本研究では,(1)信頼できない擬似ラベルによる基本クラスと新規クラス間のあいまいさを緩和する高度に設計されたメタトレーニングアルゴリズム,(2)ラベルの少ないデータとすべての未ラベルデータを用いて基礎知識を保ちながら,新規クラスの識別的特徴を学習するモデル適応機構,の2つの部分を含む新しいパラダイムを提案する。
提案手法の有効性を実証するために, 標準FSL, 半教師付きFSL, インクリメンタルFSL, およびS2 I-FSLベンチマークを行った。
関連論文リスト
- Erasing the Bias: Fine-Tuning Foundation Models for Semi-Supervised Learning [4.137391543972184]
半教師付き学習(SSL)は目覚ましい進歩をみせており、多くの方法のバリエーションをもたらしている。
本稿では,FinSSLという新しいSSLアプローチを提案する。
我々は、FineSSLが複数のベンチマークデータセットにSSLの新たな状態を設定し、トレーニングコストを6倍以上削減し、さまざまな微調整と現代的なSSLアルゴリズムをシームレスに統合できることを実証した。
論文 参考訳(メタデータ) (2024-05-20T03:33:12Z) - Instance-based Max-margin for Practical Few-shot Recognition [32.26577845735846]
IbM2は、数ショット学習のための新しいインスタンスベースのマックスマージン法である。
本稿では,IbM2がベースライン法に比べてほぼ常に改善されていることを示す。
論文 参考訳(メタデータ) (2023-05-27T04:55:13Z) - Constrained Few-Shot Learning: Human-Like Low Sample Complexity Learning
and Non-Episodic Text Classification [11.35732215154172]
ほとんどショット学習は、サンプルの複雑さの低い推論を学ぼうとする学習の創発的なパラダイムである。
認知理論に着想を得た新たなカテゴリー的コントラスト損失を用いたCFSL法を提案する。
論文 参考訳(メタデータ) (2022-08-17T06:05:41Z) - Pseudo-Labeling Based Practical Semi-Supervised Meta-Training for Few-Shot Learning [93.63638405586354]
擬似ラベルベースメタラーニング(PLML)という,シンプルで効果的なメタトレーニングフレームワークを提案する。
まず、一般的な半教師付き学習(SSL)を用いて分類器を訓練し、ラベルなしデータの擬似ラベルを得る。
ラベル付きおよび擬似ラベル付きデータから数ショットのタスクを構築し、特徴の平滑化と雑音抑圧を伴う新しい微調整法を設計する。
論文 参考訳(メタデータ) (2022-07-14T10:53:53Z) - Semantics-driven Attentive Few-shot Learning over Clean and Noisy
Samples [0.0]
メタラーナーモデルを学習し、新しいクラスに関する事前の意味知識を活用して分類器合成プロセスを導くことを目指している。
特に,表現次元とトレーニングインスタンスの重要性を推定する意味条件付き特徴注意機構とサンプル注意機構を提案する。
論文 参考訳(メタデータ) (2022-01-09T16:16:23Z) - End-to-end Generative Zero-shot Learning via Few-shot Learning [76.9964261884635]
ゼロショット学習(ZSL)の最先端アプローチでは、生成ネットをトレーニングし、提供されたメタデータに条件付きサンプルを合成する。
本稿では,このような手法をバックボーンとして使用し,合成した出力をFew-Shot Learningアルゴリズムに供給するエンドツーエンド生成ZSLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-08T17:35:37Z) - Interventional Few-Shot Learning [88.31112565383457]
本稿では,新しいFew-Shot Learningパラダイム,Interventional Few-Shot Learningを提案する。
コードはhttps://github.com/yue-zhongqi/ifsl.comで公開されている。
論文 参考訳(メタデータ) (2020-09-28T01:16:54Z) - Boosting Few-Shot Learning With Adaptive Margin Loss [109.03665126222619]
本稿では,数ショット学習問題に対するメートル法に基づくメタラーニング手法の一般化能力を改善するための適応的マージン原理を提案する。
大規模な実験により,提案手法は,現在のメートル法に基づくメタラーニング手法の性能を向上させることができることが示された。
論文 参考訳(メタデータ) (2020-05-28T07:58:41Z) - TAFSSL: Task-Adaptive Feature Sub-Space Learning for few-shot
classification [50.358839666165764]
本稿では,タスク適応機能サブスペース学習(TAFSSL)により,Few-Shot Learningシナリオの性能を大幅に向上させることができることを示す。
具体的には、挑戦的な miniImageNet と tieredImageNet ベンチマークにおいて、TAFSSL はトランスダクティブおよび半教師付き FSL 設定の両方で現在の状態を改善することができることを示しています。
論文 参考訳(メタデータ) (2020-03-14T16:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。