論文の概要: Conformal Predictor for Improving Zero-shot Text Classification
Efficiency
- arxiv url: http://arxiv.org/abs/2210.12619v1
- Date: Sun, 23 Oct 2022 05:19:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 16:27:22.809466
- Title: Conformal Predictor for Improving Zero-shot Text Classification
Efficiency
- Title(参考訳): ゼロショットテキスト分類効率向上のためのコンフォーマル予測器
- Authors: Prafulla Kumar Choubey, Yu Bai, Chien-Sheng Wu, Wenhao Liu, Nazneen
Rajani
- Abstract要約: NLIモデルとNSPモデルの平均推論時間をそれぞれ25.6%、22.2%削減する。
各データセットに適したCPを用いて、NLIベースのモデルとNSPベースのモデルの平均推論時間をそれぞれ25.6%、22.2%削減する。
- 参考スコア(独自算出の注目度): 37.745518881553416
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pre-trained language models (PLMs) have been shown effective for zero-shot
(0shot) text classification. 0shot models based on natural language inference
(NLI) and next sentence prediction (NSP) employ cross-encoder architecture and
infer by making a forward pass through the model for each label-text pair
separately. This increases the computational cost to make inferences linearly
in the number of labels. In this work, we improve the efficiency of such
cross-encoder-based 0shot models by restricting the number of likely labels
using another fast base classifier-based conformal predictor (CP) calibrated on
samples labeled by the 0shot model. Since a CP generates prediction sets with
coverage guarantees, it reduces the number of target labels without excluding
the most probable label based on the 0shot model. We experiment with three
intent and two topic classification datasets. With a suitable CP for each
dataset, we reduce the average inference time for NLI- and NSP-based models by
25.6% and 22.2% respectively, without dropping performance below the predefined
error rate of 1%.
- Abstract(参考訳): 事前学習言語モデル(PLM)はゼロショット(0ショット)テキスト分類に有効であることが示されている。
自然言語推論(nli)とnext sentence prediction(nsp)に基づく0shotモデルは、クロスエンコーダアーキテクチャを採用し、各ラベルテキストペアのモデルにフォワードパスを別々に渡すことで推論する。
これにより、ラベル数を線形に推論するために計算コストが増加する。
本研究では,0shotモデルでラベル付きサンプルをキャリブレーションした別の高速ベース分類器に基づくコンフォメーション予測器(cp)を用いて,可能性の高いラベル数を制限することにより,クロスエンコーダベースの0shotモデルの効率を向上させる。
CPは、カバレッジ保証付き予測セットを生成するため、0shotモデルに基づいて最も確率の高いラベルを除外することなく、ターゲットラベルの数を削減できる。
3つの意図と2つのトピック分類データセットを実験した。
各データセットに適切なCPを用いて、あらかじめ定義されたエラー率以下で性能を低下させることなく、NLIモデルとNSPモデルの平均推定時間をそれぞれ25.6%、22.2%削減する。
関連論文リスト
- Adapting Conformal Prediction to Distribution Shifts Without Labels [16.478151550456804]
コンフォーマル予測(CP)により、機械学習モデルは、保証されたカバレッジ率で予測セットを出力できる。
我々の目標は、テストドメインからのラベルなしデータのみを使用して、CP生成予測セットの品質を改善することです。
これは、未ラベルテストデータに対するベースモデルの不確実性に応じてCPのスコア関数を調整する、ECP と EACP と呼ばれる2つの新しい手法によって達成される。
論文 参考訳(メタデータ) (2024-06-03T15:16:02Z) - Transductive Zero-Shot and Few-Shot CLIP [24.592841797020203]
本稿では,トランスダクティブなゼロショットと少数ショットのCLIP分類問題に対処する。
推論は、各インスタンスを独立して扱うのではなく、ラベルのないクエリサンプルのミニバッチで共同で実行される。
提案手法は,CLIPのゼロショット性能に対して,画像ネットの精度を約20%向上させる。
論文 参考訳(メタデータ) (2024-04-08T12:44:31Z) - Unifying Token and Span Level Supervisions for Few-Shot Sequence
Labeling [18.24907067631541]
短いショットシーケンスラベリングは、少数のラベル付きサンプルに基づいて新しいクラスを特定することを目的としている。
本稿では,数ショットのシーケンスラベリングのためのCDAP(Consistent Dual Adaptive Prototypeal)ネットワークを提案する。
本モデルでは,3つのベンチマークデータセットに対して,最先端の新たな結果が得られる。
論文 参考訳(メタデータ) (2023-07-16T04:50:52Z) - ProTeCt: Prompt Tuning for Taxonomic Open Set Classification [59.59442518849203]
分類学的オープンセット(TOS)設定では、ほとんどショット適応法はうまくいきません。
本稿では,モデル予測の階層的一貫性を校正する即時チューニング手法を提案する。
次に,階層整合性のための新しいPrompt Tuning(ProTeCt)手法を提案し,ラベル集合の粒度を分類する。
論文 参考訳(メタデータ) (2023-06-04T02:55:25Z) - Semi-Supervised Learning with Pseudo-Negative Labels for Image
Classification [14.100569951592417]
擬陰性ラベルに基づく相互学習フレームワークを提案する。
擬似負ラベルの予測確率を下げることにより、二重モデルは予測能力を向上させることができる。
我々のフレームワークは、いくつかの主要なベンチマークで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-01-10T14:15:17Z) - Improving Zero-Shot Models with Label Distribution Priors [33.51714665243138]
本稿では,ゼロショットモデルを適用した新しいアプローチであるCLIPPRを提案する。
UTK年齢回帰作業における平均絶対誤差は平均28%改善した。
また、分類ベンチマークの有望な結果を示し、ラベルを使わずにImageNetデータセットの分類精度を2.83%改善した。
論文 参考訳(メタデータ) (2022-12-01T18:59:03Z) - ADT-SSL: Adaptive Dual-Threshold for Semi-Supervised Learning [68.53717108812297]
Semi-Supervised Learning (SSL)は、ラベル付きデータとラベルなしデータを併用してモデルをトレーニングすることで、高度な分類タスクを実現している。
本稿では,半教師付き学習(ADT-SSL)のための適応的デュアル閾値法を提案する。
実験の結果,提案したADT-SSLは最先端の分類精度を実現することがわかった。
論文 参考訳(メタデータ) (2022-05-21T11:52:08Z) - Cross-Model Pseudo-Labeling for Semi-Supervised Action Recognition [98.25592165484737]
CMPL(Cross-Model Pseudo-Labeling)と呼ばれる,より効果的な擬似ラベル方式を提案する。
CMPLは、それぞれRGBモダリティとラベル付きデータのみを使用して、Kinetics-400とUCF-101のTop-1の精度を17.6%と25.1%で達成している。
論文 参考訳(メタデータ) (2021-12-17T18:59:41Z) - Delving Deep into Label Smoothing [112.24527926373084]
ディープニューラルネットワーク(DNN)の効果的な正規化ツールとしてのラベル平滑化
対象カテゴリのモデル予測の統計に基づいてソフトラベルを生成するオンラインラベル平滑化(OLS)戦略を提案する。
論文 参考訳(メタデータ) (2020-11-25T08:03:11Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。