論文の概要: PromptNER: Prompt Locating and Typing for Named Entity Recognition
- arxiv url: http://arxiv.org/abs/2305.17104v1
- Date: Fri, 26 May 2023 17:16:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 13:19:38.559262
- Title: PromptNER: Prompt Locating and Typing for Named Entity Recognition
- Title(参考訳): PromptNER: 名前付きエンティティ認識のためのプロンプト位置とタイピング
- Authors: Yongliang Shen, Zeqi Tan, Shuhui Wu, Wenqi Zhang, Rongsheng Zhang,
Yadong Xi, Weiming Lu, Yueting Zhuang
- Abstract要約: 本稿では,位置スロットとタイプスロットを備えたデュアルスロットマルチプロンプトテンプレートを設計し,位置決めとタイピングを高速化する。
複数のプロンプトを同時にモデルに入力し、そのモデルがスロット上の並列予測によってすべてのエンティティを抽出する。
実験結果から,提案手法は特にクロスドメイン・ショット・セッティングにおいて,大幅な性能向上を実現していることがわかった。
- 参考スコア(独自算出の注目度): 39.81221703760443
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prompt learning is a new paradigm for utilizing pre-trained language models
and has achieved great success in many tasks. To adopt prompt learning in the
NER task, two kinds of methods have been explored from a pair of symmetric
perspectives, populating the template by enumerating spans to predict their
entity types or constructing type-specific prompts to locate entities. However,
these methods not only require a multi-round prompting manner with a high time
overhead and computational cost, but also require elaborate prompt templates,
that are difficult to apply in practical scenarios. In this paper, we unify
entity locating and entity typing into prompt learning, and design a dual-slot
multi-prompt template with the position slot and type slot to prompt locating
and typing respectively. Multiple prompts can be input to the model
simultaneously, and then the model extracts all entities by parallel
predictions on the slots. To assign labels for the slots during training, we
design a dynamic template filling mechanism that uses the extended bipartite
graph matching between prompts and the ground-truth entities. We conduct
experiments in various settings, including resource-rich flat and nested NER
datasets and low-resource in-domain and cross-domain datasets. Experimental
results show that the proposed model achieves a significant performance
improvement, especially in the cross-domain few-shot setting, which outperforms
the state-of-the-art model by +7.7% on average.
- Abstract(参考訳): プロンプト学習は、事前学習された言語モデルを活用するための新しいパラダイムであり、多くのタスクで大きな成功を収めた。
NERタスクで即時学習を採用するために、2種類のメソッドが対称的な視点から探索され、スパンを列挙してエンティティの型を予測するか、エンティティを見つけるためにタイプ固有のプロンプトを構築する。
しかし、これらの手法は、高速なオーバヘッドと計算コストで複数ラウンドのプロンプト方式を必要とするだけでなく、実用的なシナリオでは適用が難しい複雑なプロンプトテンプレートを必要とする。
本稿では,エンティティの特定とエンティティの型付けをプロンプト・ラーニングに統一し,位置スロットと型スロットを備えたデュアルスロット・マルチプロンプトテンプレートを設計し,それぞれ型付けと型付けをプロンプトする。
複数のプロンプトが同時にモデルに入力され、モデルがスロット上の並列予測によってすべてのエンティティを抽出する。
トレーニング中にスロットのラベルを割り当てるために,プロンプトと接地構造体とのマッチングを拡張した二部グラフを用いて動的テンプレート充填機構を設計する。
リソース豊富なフラットおよびネストされたNERデータセットや低リソースのインドメインデータセット、クロスドメインデータセットなど、さまざまな環境で実験を行います。
実験結果から,提案モデルは,特にドメイン間数ショット設定において,平均7.7%以上の性能向上を実現していることがわかった。
関連論文リスト
- Automated Few-shot Classification with Instruction-Finetuned Language
Models [76.69064714392165]
我々は、AuT-Fewが最先端の数ショット学習方法より優れていることを示す。
AuT-Few は RAFT few-shot ベンチマークにおいて,データセット間で最高のランク付け手法であることを示す。
論文 参考訳(メタデータ) (2023-05-21T21:50:27Z) - PromptNER: A Prompting Method for Few-shot Named Entity Recognition via
k Nearest Neighbor Search [56.81939214465558]
本稿では,近距離探索による数発NERの新規プロンプト法であるPromptNERを提案する。
我々は、エンティティカテゴリ情報を含むプロンプトを使用してラベルのプロトタイプを構築する。
Few-NERDデータセットとCrossNERデータセットの広範な実験により,本モデルが最先端手法よりも優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-05-20T15:47:59Z) - STPrompt: Semantic-guided and Task-driven prompts for Effective Few-shot
Classification [5.6205035780719275]
本稿ではSTPrompt-Semantic-GuidedおよびTask-driven Promptモデルを提案する。
提案モデルでは,テキスト分類タスクの5つの異なるデータセットにおいて,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-29T04:42:30Z) - Few-Shot Fine-Grained Entity Typing with Automatic Label Interpretation
and Instance Generation [36.541309948222306]
各エンティティタイプに対して,アノテーション付きエンティティ参照が付与される場合,FET(Fall-shot Fine-fine Entity Typing)の問題について検討する。
そこで本稿では,(1) エンティティ型ラベル解釈モジュールが,少数ショットインスタンスとラベル階層を併用することで,タイプラベルと語彙の関連付けを自動的に学習し,(2) 型ベースのコンテキスト化インスタンス生成器は,与えられたインスタンスに基づいて新しいインスタンスを生成して,より一般化のためにトレーニングセットを拡大する,という,2つのモジュールからなる新しいFETフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-28T04:05:40Z) - An Information-theoretic Approach to Prompt Engineering Without Ground
Truth Labels [55.06990011183662]
我々は、ラベル付き例やtextitwithout のモデルへの直接アクセスなしに、プロンプトテンプレートを選択する新しい方法を提案する。
7つの異なるNLPタスクを表す8つのデータセットにまたがって、テンプレートが高い相互情報を持つ場合、そのタスクに対して高い精度を持つことを示す。
論文 参考訳(メタデータ) (2022-03-21T21:51:43Z) - InstructionNER: A Multi-Task Instruction-Based Generative Framework for
Few-shot NER [31.32381919473188]
InstructionNERというマルチタスク命令ベースの生成フレームワークを提案する。
具体的には、NERタスクを生成問題として再構成し、タスク固有の命令と回答オプションでソース文を豊かにし、自然言語のエンティティと型を推論する。
実験結果から,本手法は5つのデータセットのベースラインを数ショット設定で一貫的に上回っていることがわかった。
論文 参考訳(メタデータ) (2022-03-08T07:56:36Z) - X2Parser: Cross-Lingual and Cross-Domain Framework for Task-Oriented
Compositional Semantic Parsing [51.81533991497547]
タスク指向コンポジションセマンティックパーシング(TCSP)は複雑なネストされたユーザクエリを処理する。
本報告では,TCSPの変換可能なクロスランガルとクロスドメインを比較した。
本稿では,フラット化意図とスロット表現を別々に予測し,両方の予測タスクをシーケンスラベリング問題にキャストすることを提案する。
論文 参考訳(メタデータ) (2021-06-07T16:40:05Z) - Interpretable Entity Representations through Large-Scale Typing [61.4277527871572]
本稿では,人間の読みやすいエンティティ表現を作成し,箱から高パフォーマンスを実現する手法を提案する。
我々の表現は、微粒な実体型に対する後続確率に対応するベクトルである。
特定のドメインに対して,学習に基づく方法で,型セットのサイズを縮小できることを示す。
論文 参考訳(メタデータ) (2020-04-30T23:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。