論文の概要: Incremental Few-shot Text Classification with Multi-round New Classes:
Formulation, Dataset and System
- arxiv url: http://arxiv.org/abs/2104.11882v1
- Date: Sat, 24 Apr 2021 04:41:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 14:46:10.474804
- Title: Incremental Few-shot Text Classification with Multi-round New Classes:
Formulation, Dataset and System
- Title(参考訳): マルチラウンド新クラスによるインクリメンタル・マイナショットテキスト分類:定式化、データセット、およびシステム
- Authors: Congying Xia, Wenpeng Yin, Yihao Feng, Philip Yu
- Abstract要約: この作業では、NLPドメインの新しいタスク、インクリメンタルな数ショットテキスト分類を定義します。
各ラウンドには、クラスごとにいくつかのラベル付き例を持つ新しいクラスのバッチがある。
新しいタスクの策定に加えて、インクリメンタルな数ショット設定で2つのベンチマークデータセットもリリースしています。
- 参考スコア(独自算出の注目度): 11.97794017921302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text classification is usually studied by labeling natural language texts
with relevant categories from a predefined set. In the real world, new classes
might keep challenging the existing system with limited labeled data. The
system should be intelligent enough to recognize upcoming new classes with a
few examples. In this work, we define a new task in the NLP domain, incremental
few-shot text classification, where the system incrementally handles multiple
rounds of new classes. For each round, there is a batch of new classes with a
few labeled examples per class. Two major challenges exist in this new task:
(i) For the learning process, the system should incrementally learn new classes
round by round without re-training on the examples of preceding classes; (ii)
For the performance, the system should perform well on new classes without much
loss on preceding classes. In addition to formulating the new task, we also
release two benchmark datasets in the incremental few-shot setting: intent
classification and relation classification. Moreover, we propose two entailment
approaches, ENTAILMENT and HYBRID, which show promise for solving this novel
problem.
- Abstract(参考訳): テキスト分類は通常、予め定義された集合から関連するカテゴリの自然言語テキストをラベル付けすることで研究される。
現実の世界では、新しいクラスはラベル付きデータで既存のシステムに挑戦し続けるかもしれない。
システムは、いくつかの例で新しいクラスを認識できるほどインテリジェントであるべきです。
本研究では,NLP領域における新たなタスク,インクリメンタルな数ショットのテキスト分類を定義し,複数の新しいクラスを段階的に処理する。
各ラウンドには、クラスごとにいくつかのラベル付き例を持つ新しいクラスのバッチがある。
新しいタスクには2つの大きな課題が存在する: (i) 学習プロセスでは、システムは、前のクラスの例を再トレーニングすることなく、段階的に新しいクラスを段階的に学習する必要があります。
新しいタスクの定式化に加えて,インテント分類と関係分類という,インクリメンタルなマイナショット設定の2つのベンチマークデータセットもリリースしています。
さらに,この問題を解決するための提案手法として,ENTAILMENTとHYBRIDの2つを提案する。
関連論文リスト
- Organizing Background to Explore Latent Classes for Incremental Few-shot Semantic Segmentation [7.570798966278471]
インクリメンタルなFew-shot Semantic COCO(iFSS)は、トレーニング済みのセグメンテーションモデルを、いくつかの注釈付きイメージを通じて新しいクラスに拡張することである。
我々は,OINetと呼ばれる背景埋め込み空間 textbfOrganization とプロトタイプ textbfInherit Network を提案する。
論文 参考訳(メタデータ) (2024-05-29T23:22:12Z) - Class-Incremental Few-Shot Event Detection [68.66116956283575]
本稿では,クラスインクリメンタルなイベント検出と呼ばれる新しいタスクを提案する。
このタスクは、古い知識の忘れと新しいクラスオーバーフィットという2つの問題に直面している。
そこで本研究では,Prompt-KDと呼ばれる新しい知識蒸留法と迅速な学習手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T09:31:14Z) - Expandable Subspace Ensemble for Pre-Trained Model-Based Class-Incremental Learning [65.57123249246358]
PTMベースのCILのためのExpAndable Subspace Ensemble (EASE)を提案する。
タスク固有のサブスペースを作成することを目的として、新しいタスクごとに異なる軽量アダプタモジュールをトレーニングする。
我々のプロトタイプ補完戦略は、古いクラスのインスタンスを使わずに、古いクラスの新機能を合成します。
論文 参考訳(メタデータ) (2024-03-18T17:58:13Z) - Active Generalized Category Discovery [60.69060965936214]
GCD(Generalized Category Discovery)は、新しいクラスと古いクラスの未ラベルのサンプルをクラスタ化するための取り組みである。
我々は,能動的学習の精神を取り入れて,能動的一般化カテゴリー発見(AGCD)という新たな設定を提案する。
提案手法は, 汎用および微粒なデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-07T07:12:24Z) - Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration [67.69532794049445]
既存のメソッドでは、新しいクラスのサンプルをベースクラスに誤分類する傾向があり、新しいクラスのパフォーマンスが低下する。
我々は,新しいクラスの識別性を高めるため,簡易かつ効果的なトレーニング-フレア・カロブラシアン (TEEN) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-08T18:24:08Z) - Instance-level Few-shot Learning with Class Hierarchy Mining [26.273796311012042]
我々は階層的な情報を利用して、新しいオブジェクトを効果的に分類するために、基本クラスの識別的および関連する特徴を活用する。
これらの特徴は、不足したデータを持つクラスを合理的に記述するために使用できる、ベースクラスの豊富なデータから抽出される。
FSISにおける階層型検出器を効果的に訓練するために,細粒度クラス間の関係をより詳細に記述するためにラベル改良を適用した。
論文 参考訳(メタデータ) (2023-04-15T02:55:08Z) - Incremental Few-Shot Semantic Segmentation via Embedding Adaptive-Update
and Hyper-class Representation [30.558312809285905]
EHNetは、目覚ましいアドバンテージで、最先端の新たなパフォーマンスを実現している。
PASCAL-5iとCOCOデータセットの実験により、EHNetは、目覚ましいアドバンテージで新しい最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2022-07-26T15:20:07Z) - Class-incremental Novel Class Discovery [76.35226130521758]
クラス増進型新規クラス発見(class-iNCD)の課題について検討する。
基本クラスに関する過去の情報を忘れないようにする,クラスiNCDのための新しい手法を提案する。
3つの共通ベンチマークで実施した実験により,本手法が最先端の手法を著しく上回ることを示した。
論文 参考訳(メタデータ) (2022-07-18T13:49:27Z) - Few-Shot Class-Incremental Learning by Sampling Multi-Phase Tasks [59.12108527904171]
モデルは新しいクラスを認識し、古いクラスに対する差別性を維持すべきである。
古いクラスを忘れずに新しいクラスを認識するタスクは、FSCIL ( few-shot class-incremental Learning) と呼ばれる。
我々は,LearnIng Multi-phase Incremental Tasks (LIMIT) によるメタラーニングに基づくFSCILの新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-03-31T13:46:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。