論文の概要: Automatically Identifying Words That Can Serve as Labels for Few-Shot
Text Classification
- arxiv url: http://arxiv.org/abs/2010.13641v1
- Date: Mon, 26 Oct 2020 14:56:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 17:47:40.553040
- Title: Automatically Identifying Words That Can Serve as Labels for Few-Shot
Text Classification
- Title(参考訳): 短いショットテキスト分類のためのラベル化可能な単語の自動識別
- Authors: Timo Schick, Helmut Schmid, Hinrich Sch\"utze
- Abstract要約: 最近のテキスト分類のアプローチでは、テキスト入力をある種のタスク記述を含むクローズ質問に変換し、事前訓練された言語モデルで処理し、予測された単語をラベルにマッピングする。
この問題を軽減するために、少量のトレーニングデータからそのようなマッピングを自動的に見つけるアプローチを考案する。
多くのタスクにおいて、我々の手法で発見されたマッピングは、手作りのラベルと単語のマッピングとほぼ同等に機能する。
- 参考スコア(独自算出の注目度): 12.418532541734193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A recent approach for few-shot text classification is to convert textual
inputs to cloze questions that contain some form of task description, process
them with a pretrained language model and map the predicted words to labels.
Manually defining this mapping between words and labels requires both domain
expertise and an understanding of the language model's abilities. To mitigate
this issue, we devise an approach that automatically finds such a mapping given
small amounts of training data. For a number of tasks, the mapping found by our
approach performs almost as well as hand-crafted label-to-word mappings.
- Abstract(参考訳): 少ないテキスト分類の最近のアプローチは、テキスト入力をある種のタスク記述を含むクローズ質問に変換し、事前訓練された言語モデルで処理し、予測した単語をラベルにマップする。
この単語とラベルのマッピングを手動で定義するには、ドメインの専門知識と言語モデルの能力を理解する必要がある。
この問題を軽減するために、少量のトレーニングデータからそのようなマッピングを自動的に見つけるアプローチを考案する。
多くのタスクにおいて、我々のアプローチで見いだされたマッピングは、手作りのラベルとワードのマッピングとほぼ同等の性能を発揮します。
関連論文リスト
- Description-Enhanced Label Embedding Contrastive Learning for Text
Classification [65.01077813330559]
モデル学習プロセスにおける自己監督型学習(SSL)と新しい自己監督型関係関係(R2)分類タスクの設計
テキスト分類とR2分類を最適化対象として扱うテキスト分類のための関係学習ネットワーク(R2-Net)の関係について検討する。
ラベルセマンティックラーニングのためのマルチアスペクト記述を得るためのWordNetからの外部知識。
論文 参考訳(メタデータ) (2023-06-15T02:19:34Z) - The Benefits of Label-Description Training for Zero-Shot Text
Classification [35.27224341685012]
事前訓練された言語モデルはゼロショットテキスト分類を改善した。
最小限の努力でゼロショット精度をさらに向上する簡単な方法を提案する。
論文 参考訳(メタデータ) (2023-05-03T16:19:31Z) - Exploring Structured Semantic Prior for Multi Label Recognition with
Incomplete Labels [60.675714333081466]
不完全なラベルを持つマルチラベル認識(MLR)は非常に難しい。
最近の研究は、視覚言語モデルであるCLIPにおける画像とラベルの対応を探り、不十分なアノテーションを補うことを目指している。
我々は,MLRにおけるラベル管理の欠如を,構造化されたセマンティクスを導出することにより,不完全なラベルで修復することを提唱する。
論文 参考訳(メタデータ) (2023-03-23T12:39:20Z) - Active Learning and Multi-label Classification for Ellipsis and
Coreference Detection in Conversational Question-Answering [5.984693203400407]
エリプシスとコアは、一般的に発生する言語現象である。
DistilBERTに基づくマルチラベル分類器を提案する。
これらの手法は,手動ラベル付きデータセット上で,これらの現象を検出するための分類器の性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2022-07-07T08:14:54Z) - Label Semantic Aware Pre-training for Few-shot Text Classification [53.80908620663974]
テキスト分類システムの一般化とデータ効率を向上させるために,ラベルセマンティック・アウェア事前学習(LSAP)を提案する。
LSAPは、ラベル付き文の2次事前学習を行うことにより、ラベルセマンティクスを事前学習された生成モデル(T5)に組み込む。
論文 参考訳(メタデータ) (2022-04-14T17:33:34Z) - Automatic Multi-Label Prompting: Simple and Interpretable Few-Shot
Classification [15.575483080819563]
本稿では,自動マルチラベルプロンプト(AMuLaP)を提案する。
提案手法は,1対多のラベルマッピングと統計に基づくアルゴリズムを用いて,プロンプトテンプレートを付与したラベルマッピングを選択する。
実験の結果,AMuLaPは人的労力や外部リソースを使わずにGLUEベンチマーク上での競合性能を実証した。
論文 参考訳(メタデータ) (2022-04-13T11:15:52Z) - BERT-Assisted Semantic Annotation Correction for Emotion-Related
Questions [0.0]
EMO20Q(Emotion Twenty Questions)と呼ばれる質問ゲームにおいて,BERTニューラルネットワークモデルを用いてアノテーションタスクに情報をフィードバックする。
本手法は,テキストユーザデータのアノテーションを,複雑な発話レベルのセマンティックラベルで評価・修正する有効な方法であることを示す。
論文 参考訳(メタデータ) (2022-04-02T18:00:49Z) - Prompt-Learning for Short Text Classification [30.53216712864025]
短文では、極端に短い長さ、特徴の空間性、高いあいまいさは、分類タスクに大きな課題をもたらす。
本稿では,知識拡張に基づく素早い学習を生かした簡易な短文分類手法を提案する。
論文 参考訳(メタデータ) (2022-02-23T08:07:06Z) - UCPhrase: Unsupervised Context-aware Quality Phrase Tagging [63.86606855524567]
UCPhraseは、教師なしの文脈対応のフレーズタグである。
我々は,一貫した単語列から,高品質なフレーズを銀のラベルとして表現する。
我々の設計は、最先端の事前訓練、教師なし、遠隔管理の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-05-28T19:44:24Z) - Text Classification Using Label Names Only: A Language Model
Self-Training Approach [80.63885282358204]
現在のテキスト分類法は、訓練データとして多くの人ラベルの文書を必要とするのが一般的である。
本モデルでは,トピック分類や感情分類を含む4つのベンチマークデータセットにおいて,約90%の精度が得られた。
論文 参考訳(メタデータ) (2020-10-14T17:06:41Z) - Adaptive Self-training for Few-shot Neural Sequence Labeling [55.43109437200101]
ニューラルシークエンスラベリングモデルにおけるラベル不足問題に対処する手法を開発した。
自己学習は、大量のラベルのないデータから学ぶための効果的なメカニズムとして機能する。
メタラーニングは、適応的なサンプル再重み付けにおいて、ノイズのある擬似ラベルからのエラー伝播を軽減するのに役立つ。
論文 参考訳(メタデータ) (2020-10-07T22:29:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。