論文の概要: PromptNER: Prompting For Named Entity Recognition
- arxiv url: http://arxiv.org/abs/2305.15444v1
- Date: Wed, 24 May 2023 07:38:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 19:20:18.896343
- Title: PromptNER: Prompting For Named Entity Recognition
- Title(参考訳): PromptNER: 名前付きエンティティ認識のためのプロンプト
- Authors: Dhananjay Ashok, Zachary C. Lipton
- Abstract要約: 本稿では,少数ショットとクロスドメインNERのための最先端アルゴリズムであるPromptNERを紹介する。
PromptNERは、数ショットのNERで最先端のパフォーマンスを実現し、ConLLデータセットでF1スコアの11%(絶対)改善を実現している。
また、利用可能なデータの2%未満を使用しながらも、平均的なF1ゲイン9%の5つのクロスドメインNERターゲットドメインに新しいマークを設定しました。
- 参考スコア(独自算出の注目度): 27.501500279749475
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In a surprising turn, Large Language Models (LLMs) together with a growing
arsenal of prompt-based heuristics now offer powerful off-the-shelf approaches
providing few-shot solutions to myriad classic NLP problems. However, despite
promising early results, these LLM-based few-shot methods remain far from the
state of the art in Named Entity Recognition (NER), where prevailing methods
include learning representations via end-to-end structural understanding and
fine-tuning on standard labeled corpora. In this paper, we introduce PromptNER,
a new state-of-the-art algorithm for few-Shot and cross-domain NER. To adapt to
any new NER task PromptNER requires a set of entity definitions in addition to
the standard few-shot examples. Given a sentence, PromptNER prompts an LLM to
produce a list of potential entities along with corresponding explanations
justifying their compatibility with the provided entity type definitions.
Remarkably, PromptNER achieves state-of-the-art performance on few-shot NER,
achieving an 11% (absolute) improvement in F1 score on the ConLL dataset, and a
10% (absolute) improvement on the FewNERD dataset. PromptNER also moves the
state of the art on Cross Domain NER, outperforming all prior methods
(including those not limited to the few-shot setting), setting a new mark on
all 5 CrossNER target domains, with an average F1 gain of 9%, despite using
less than 2% of the available data.
- Abstract(参考訳): 驚くべきことに、LLM(Large Language Models)は、急進的なヒューリスティック(promise-based heuristics)の武器の増大とともに、無数の古典的NLP問題に対する数ショットのソリューションを提供する強力なオフザシェルフアプローチを提供する。
しかし、将来性のある初期の成果にもかかわらず、これらのLLMベースの小ショット法は、標準ラベル付きコーパスによるエンドツーエンド構造理解と微調整による表現の学習を含む、名前付きエンティティ認識(NER)の最先端技術には程遠いままである。
本稿では,数ショットおよびクロスドメインNERのための最先端アルゴリズムであるPromptNERを紹介する。
新しいNERタスクに適応するために、PromptNERは標準的ないくつかの例に加えてエンティティ定義のセットを必要とする。
文が与えられた後、PromptNERはLLMに、提供されたエンティティタイプ定義との互換性を正当化する対応する説明とともに、潜在的なエンティティのリストを作成するよう促す。
PromptNERは、数ショットのNERで最先端のパフォーマンスを実現し、ConLLデータセットでF1スコアが11%(絶対)改善され、FewNERDデータセットで10%(絶対)改善された。
プロンプトナーはまた、クロスドメインnerの最先端を移動させ、すべての以前のメソッド(数ショット設定に限定されないメソッドを含む)を上回り、5つのクロスナーターゲットドメインすべてに新しいマークを設定し、平均f1利得は9%である。
関連論文リスト
- FsPONER: Few-shot Prompt Optimization for Named Entity Recognition in Domain-specific Scenarios [0.5106912532044251]
FsPONERは、少数ショットプロンプトを最適化するための新しいアプローチであり、ドメイン固有のNERデータセットの性能を評価する。
FsPONERは、ランダムサンプリングとTF-IDFとの組み合わせに基づく3つのショット選択法で構成されている。
データ不足を考慮した実世界のシナリオでは、TF-IDFを用いたFsPONERは、F1スコアで約10%の微調整モデルを上回っている。
論文 参考訳(メタデータ) (2024-07-10T20:32:50Z) - In-Context Learning for Few-Shot Nested Named Entity Recognition [53.55310639969833]
数発のネストネストNERの設定に有効で革新的なICLフレームワークを導入する。
我々は、新しい実演選択機構であるEnDe retrieverを考案し、ICLプロンプトを改善する。
EnDe検索では,意味的類似性,境界類似性,ラベル類似性という3種類の表現学習を行うために,コントラスト学習を用いる。
論文 参考訳(メタデータ) (2024-02-02T06:57:53Z) - NERetrieve: Dataset for Next Generation Named Entity Recognition and
Retrieval [49.827932299460514]
我々は、大きな言語モデルによって提供される能力は、NER研究の終わりではなく、むしろエキサイティングな始まりであると主張する。
我々は、NERタスクの3つの変種と、それらをサポートするデータセットを示す。
500のエンティティタイプをカバーする400万段落の,大規模で銀の注釈付きコーパスを提供する。
論文 参考訳(メタデータ) (2023-10-22T12:23:00Z) - PromptNER: A Prompting Method for Few-shot Named Entity Recognition via
k Nearest Neighbor Search [56.81939214465558]
本稿では,近距離探索による数発NERの新規プロンプト法であるPromptNERを提案する。
我々は、エンティティカテゴリ情報を含むプロンプトを使用してラベルのプロトタイプを構築する。
Few-NERDデータセットとCrossNERデータセットの広範な実験により,本モデルが最先端手法よりも優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-05-20T15:47:59Z) - Enhancing Few-shot NER with Prompt Ordering based Data Augmentation [59.69108119752584]
本稿では,PODA(Prompt Ordering Based Data Augmentation)手法を提案する。
3つのパブリックNERデータセットの実験結果とさらなる分析により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-05-19T16:25:43Z) - Gaussian Prior Reinforcement Learning for Nested Named Entity
Recognition [52.46740830977898]
GPRLと呼ばれる新しいSeq2seqモデルを提案し、ネストしたNERタスクをエンティティ三重項列生成プロセスとして定式化する。
3つのネストされたNERデータセットの実験では、GPRLが以前のネストされたNERモデルより優れていることが示されている。
論文 参考訳(メタデータ) (2023-05-12T05:55:34Z) - MINER: Improving Out-of-Vocabulary Named Entity Recognition from an
Information Theoretic Perspective [57.19660234992812]
NERモデルは標準のNERベンチマークで有望な性能を達成した。
近年の研究では、従来のアプローチはエンティティ参照情報に過度に依存し、OoV(out-of-vocabulary)エンティティ認識の性能が劣っていることが示されている。
我々は、情報理論の観点からこの問題を改善するための新しいNER学習フレームワークであるMINERを提案する。
論文 参考訳(メタデータ) (2022-04-09T05:18:20Z) - Unified Named Entity Recognition as Word-Word Relation Classification [25.801945832005504]
我々は、統一NERを単語関係分類、すなわちW2NERとしてモデル化する新しい方法を提案する。
このアーキテクチャは、エンティティワード間の隣り合う関係を効果的にモデル化することにより、統一NERのカーネルボトルネックを解決する。
W2NERスキームに基づいて,統一NERを単語ペアの2次元グリッドとしてモデル化するニューラルネットワークフレームワークを開発する。
論文 参考訳(メタデータ) (2021-12-19T06:11:07Z) - CONTaiNER: Few-Shot Named Entity Recognition via Contrastive Learning [11.289324473201614]
既存のアプローチでは、ソースドメインからクラス固有のセマンティック機能と中間表現しか学ばない。
本研究では,Few-Shot NERのトークン間分布距離を最適化する新しいコントラスト学習手法であるCon TaiNERを提案する。
従来のテスト領域 (OntoNotes, CoNLL'03, WNUT '17, GUM) と新しい大規模Few-Shot NERデータセット (Few-NERD) を用いて行った実験では, CON TaiNER が従来の手法よりも3%-13%の絶対F1点で優れていた。
論文 参考訳(メタデータ) (2021-09-15T21:41:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。