論文の概要: Tackling Concept Shift in Text Classification using Entailment-style
Modeling
- arxiv url: http://arxiv.org/abs/2311.03320v1
- Date: Mon, 6 Nov 2023 18:15:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 13:24:28.485971
- Title: Tackling Concept Shift in Text Classification using Entailment-style
Modeling
- Title(参考訳): エンテーメントスタイルモデリングを用いたテキスト分類におけるタックリング概念シフト
- Authors: Sumegh Roychowdhury, Karan Gupta, Siva Rajesh Kasa, Prasanna Srinivasa
Murthy, Alok Chandra
- Abstract要約: 本稿では,バニラ分類をentailment-style問題に変換する改定法を提案する。
提案手法が実世界と合成データセットの両方に与える影響を実証する。
- 参考スコア(独自算出の注目度): 2.2588825300186426
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Pre-trained language models (PLMs) have seen tremendous success in text
classification (TC) problems in the context of Natural Language Processing
(NLP). In many real-world text classification tasks, the class definitions
being learned do not remain constant but rather change with time - this is
known as Concept Shift. Most techniques for handling concept shift rely on
retraining the old classifiers with the newly labelled data. However, given the
amount of training data required to fine-tune large DL models for the new
concepts, the associated labelling costs can be prohibitively expensive and
time consuming. In this work, we propose a reformulation, converting vanilla
classification into an entailment-style problem that requires significantly
less data to re-train the text classifier to adapt to new concepts. We
demonstrate the effectiveness of our proposed method on both real world &
synthetic datasets achieving absolute F1 gains upto 7% and 40% respectively in
few-shot settings. Further, upon deployment, our solution also helped save 75%
of labeling costs overall.
- Abstract(参考訳): 事前学習言語モデル(PLM)は、自然言語処理(NLP)の文脈において、テキスト分類(TC)問題において大きな成功を収めている。
多くの現実世界のテキスト分類タスクでは、学習されるクラス定義は一定ではなく、時間とともに変化する。
概念シフトを扱うほとんどのテクニックは、新しいラベル付きデータで古い分類器を再訓練することに依存している。
しかし、新しい概念の大型DLモデルを微調整するために必要なトレーニングデータの量を考えると、関連するラベリングコストは違法に高価であり、時間を要する可能性がある。
そこで本研究では,バニラ分類を包括的問題に変換することで,新たな概念に適応するためにテキスト分類器を再学習するデータを大幅に削減する手法を提案する。
提案手法の有効性を実世界と合成データセットの両方で実証し,F1絶対値が7%,F1絶対値が40%に向上した。
さらに、デプロイ時に当社のソリューションは、ラベリングコスト全体の75%の削減にも役立ちました。
関連論文リスト
- Co-training for Low Resource Scientific Natural Language Inference [65.37685198688538]
遠隔教師付きラベルに分類器のトレーニング力学に基づいて重みを割り当てる新しいコトレーニング手法を提案する。
予測された信頼度に対する任意のしきい値に基づいてサンプルをフィルタリングするのではなく、重要重みを割り当てることにより、自動ラベル付きデータの使用を最大化する。
提案手法は、遠隔監視ベースラインに対するマクロF1の1.5%の改善と、他の強力なSSLベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-20T18:35:47Z) - Enhancing Visual Continual Learning with Language-Guided Supervision [76.38481740848434]
継続的な学習は、モデルが以前獲得した知識を忘れずに新しいタスクを学習できるようにすることを目的としている。
ワンホットラベルが伝達する少ない意味情報は,タスク間の効果的な知識伝達を妨げている,と我々は主張する。
具体的には, PLM を用いて各クラスのセマンティックターゲットを生成し, 凍結し, 監視信号として機能する。
論文 参考訳(メタデータ) (2024-03-24T12:41:58Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Clarify: Improving Model Robustness With Natural Language Corrections [59.041682704894555]
モデルを教える標準的な方法は、大量のデータを提供することです。
このアプローチは、データ内の誤解を招く信号を拾うため、モデルに誤ったアイデアを教えることが多い。
モデル誤解をインタラクティブに修正するためのインターフェースと手法であるClarifyを提案する。
論文 参考訳(メタデータ) (2024-02-06T05:11:38Z) - Few-Shot Learning with Siamese Networks and Label Tuning [5.006086647446482]
適切な事前トレーニングを行うことで、テキストやラベルを埋め込むSiamese Networksが、競争力のある代替手段となることを示す。
ラベルの埋め込みだけを変えることで、数ショットのセットアップでモデルを適応できる、シンプルで計算効率の良い手法であるラベルチューニングを導入する。
論文 参考訳(メタデータ) (2022-03-28T11:16:46Z) - Revisiting Self-Training for Few-Shot Learning of Language Model [61.173976954360334]
ラベル付きデータにはタスク関連情報が豊富に含まれており、言語モデルの素早い学習に有用であることが証明されている。
本研究では,言語モデルファインチューニングのための自己学習手法を再検討し,最先端のプロンプトベースの少ショット学習者,SFLMを提案する。
論文 参考訳(メタデータ) (2021-10-04T08:51:36Z) - Few-Shot Incremental Learning with Continually Evolved Classifiers [46.278573301326276]
Few-shot Class-Incremental Learning(FSCIL)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムの設計を目指している。
難点は、新しいクラスからの限られたデータが、重大な過度な問題を引き起こすだけでなく、破滅的な忘れの問題も悪化させることにある。
我々は,適応のための分類器間のコンテキスト情報を伝達するグラフモデルを用いた連続進化型cif(cec)を提案する。
論文 参考訳(メタデータ) (2021-04-07T10:54:51Z) - Partial Is Better Than All: Revisiting Fine-tuning Strategy for Few-shot
Learning [76.98364915566292]
一般的なプラクティスは、まずベースセット上でモデルをトレーニングし、その後、微調整によって新しいクラスに移行することである。
本稿では,基本モデル内の特定の層を凍結あるいは微調整することにより,部分的知識の伝達を提案する。
提案手法の有効性を実証するために, CUB と mini-ImageNet の広範な実験を行った。
論文 参考訳(メタデータ) (2021-02-08T03:27:05Z) - Cold-start Active Learning through Self-supervised Language Modeling [15.551710499866239]
アクティブラーニングは、ラベルに最も重要な例を選択することで、アノテーションのコストを削減することを目的としている。
BERTでは、マスク付き言語モデリング損失に基づく単純な戦略を開発する。
他のベースラインと比較して,本手法はより少ないサンプリングイテレーションと時間で精度が高い。
論文 参考訳(メタデータ) (2020-10-19T14:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。