論文の概要: A Few-shot Approach to Resume Information Extraction via Prompts
- arxiv url: http://arxiv.org/abs/2209.09450v1
- Date: Tue, 20 Sep 2022 04:01:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 18:19:29.318574
- Title: A Few-shot Approach to Resume Information Extraction via Prompts
- Title(参考訳): プロンプトによる残量情報抽出のための簡単なアプローチ
- Authors: Chengguang Gan, Tatsunori Mori
- Abstract要約: 我々は、手動知識言語(Manual Knowledgeable Verbalizer, MKV)の概念を提案する。
アプリケーションシナリオに対応するKnowledgeable Verbalizerを構築するためのルール。
実験により、我々のルールに基づいて設計されたテンプレートと動詞化器は、既存の手動テンプレートよりも効果的で堅牢であり、自動的にプロンプトメソッドを生成することが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prompt learning has been shown to achieve near-Fine-tune performance in most
text classification tasks with very few training examples. It is advantageous
for NLP tasks where samples are scarce. In this paper, we attempt to apply it
to a practical scenario, i.e resume information extraction, and to enhance the
existing method to make it more applicable to the resume information extraction
task. In particular, we created multiple sets of manual templates and
verbalizers based on the textual characteristics of resumes. In addition, we
compared the performance of Masked Language Model (MLM) pre-training language
models (PLMs) and Seq2Seq PLMs on this task. Furthermore, we improve the design
method of verbalizer for Knowledgeable Prompt-tuning in order to provide a
example for the design of Prompt templates and verbalizer for other
application-based NLP tasks. In this case, we propose the concept of Manual
Knowledgeable Verbalizer(MKV). A rule for constructing the Knowledgeable
Verbalizer corresponding to the application scenario. Experiments demonstrate
that templates and verbalizers designed based on our rules are more effective
and robust than existing manual templates and automatically generated prompt
methods. It is established that the currently available automatic prompt
methods cannot compete with manually designed prompt templates for some
realistic task scenarios. The results of the final confusion matrix indicate
that our proposed MKV significantly resolved the sample imbalance issue.
- Abstract(参考訳): プロンプト学習は、非常に少ないトレーニング例で、ほとんどのテキスト分類タスクでほぼ微妙なパフォーマンスを達成できることが示されている。
サンプルが不足しているNLPタスクには有利である。
本稿では,情報抽出を再開する現実的なシナリオに適用し,既存の手法を強化して,情報抽出タスクにもっと適用できるようにする。
特に,履歴書のテキスト的特徴に基づいて,複数の手動テンプレートと動詞を作成した。
さらに,この課題に対して,masked Language Model (MLM) プレトレーニング言語モデル (PLM) と Seq2Seq PLM の性能を比較した。
さらに,他のアプリケーションベース NLP タスクに対する Prompt テンプレートの設計例を提供するために,知識型 Prompt-tuning のための動詞化器の設計方法を改善する。
本稿では,手動知識言語(Manual Knowledgeable Verbalizer, MKV)の概念を提案する。
アプリケーションシナリオに対応するKnowledgeable Verbalizerを構築するためのルール。
実験は、既存の手動テンプレートや自動生成プロンプトメソッドよりも、私たちのルールに基づいて設計されたテンプレートや動詞化器の方が効率的で堅牢であることを実証します。
現在利用可能な自動プロンプトメソッドは、いくつかの現実的なタスクシナリオのために手作業で設計されたプロンプトテンプレートと競合することができない。
最終混乱行列の結果,提案したMKVは試料不均衡問題を著しく解決した。
関連論文リスト
- Optimising Hard Prompts with Few-Shot Meta-Prompting [0.0]
文脈的プロンプトは、文書や対話の形式でコンテキストを含み、Large Language Model (LLM)への自然言語命令も含む。
コンテキストを判断すると、プロンプトのテンプレートとして機能する。
本稿では,既存のプロンプトテンプレートのセットからLCMを用いて,そのコンテキストを明らかにすることなく,より優れたテンプレートを生成するための反復的手法を提案する。
論文 参考訳(メタデータ) (2024-07-09T07:02:57Z) - MetricPrompt: Prompting Model as a Relevance Metric for Few-shot Text
Classification [65.51149771074944]
MetricPromptは、数発のテキスト分類タスクをテキストペア関連性推定タスクに書き換えることで、言語設計の難易度を緩和する。
広範に使われている3つのテキスト分類データセットを4つのショット・セッティングで実験する。
結果から,MetricPromptは,手動弁証法や自動弁証法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-06-15T06:51:35Z) - Automated Few-shot Classification with Instruction-Finetuned Language
Models [76.69064714392165]
我々は、AuT-Fewが最先端の数ショット学習方法より優れていることを示す。
AuT-Few は RAFT few-shot ベンチマークにおいて,データセット間で最高のランク付け手法であることを示す。
論文 参考訳(メタデータ) (2023-05-21T21:50:27Z) - Towards Unified Prompt Tuning for Few-shot Text Classification [47.71344780587704]
We present the Unified Prompt Tuning (UPT) framework that to improve few-shot text classification for BERT-style model。
UPTでは、異なるNLPタスク間での協調学習のために、新しいパラダイムであるPrompt-Options-Verbalizerを提案する。
また, PLMの一般化能力を向上させるために, 知識向上型選択マスケッド言語モデリングという自己教師型タスクを設計する。
論文 参考訳(メタデータ) (2022-05-11T07:40:45Z) - AdaPrompt: Adaptive Model Training for Prompt-based NLP [77.12071707955889]
PLMの継続事前学習のための外部データを適応的に検索するAdaPromptを提案する。
5つのNLPベンチマークの実験結果から、AdaPromptは数ショット設定で標準PLMよりも改善可能であることが示された。
ゼロショット設定では、標準のプロンプトベースの手法を26.35%の相対誤差削減で上回ります。
論文 参考訳(メタデータ) (2022-02-10T04:04:57Z) - Context-Tuning: Learning Contextualized Prompts for Natural Language
Generation [52.835877179365525]
自然言語生成のための微調整PLMに対して,Context-Tuningと呼ばれる新しい連続的プロンプト手法を提案する。
まず、入力テキストに基づいてプロンプトを導出し、PLMから有用な知識を抽出して生成する。
第二に、生成したテキストの入力に対する関連性をさらに高めるために、連続的な逆プロンプトを用いて自然言語生成のプロセスを洗練する。
論文 参考訳(メタデータ) (2022-01-21T12:35:28Z) - Prompt-Learning for Fine-Grained Entity Typing [40.983849729537795]
完全教師付き,少数ショット,ゼロショットシナリオにおける微粒化エンティティタイピングに対するプロンプトラーニングの適用について検討する。
本稿では,エンティティタイプの情報を自動的に要約するために,プロンプトラーニングにおける分布レベルの最適化を行う自己教師型戦略を提案する。
論文 参考訳(メタデータ) (2021-08-24T09:39:35Z) - AutoPrompt: Eliciting Knowledge from Language Models with Automatically
Generated Prompts [46.03503882865222]
AutoPromptは、勾配誘導検索に基づいて、さまざまなタスクセットのプロンプトを作成する自動メソッドである。
マスク付き言語モデル(MLM)は,感情分析や自然言語推論を,追加パラメータや微調整を伴わずに行う能力を持つことを示す。
論文 参考訳(メタデータ) (2020-10-29T22:54:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。