論文の概要: Show Less, Instruct More: Enriching Prompts with Definitions and Guidelines for Zero-Shot NER
- arxiv url: http://arxiv.org/abs/2407.01272v2
- Date: Tue, 2 Jul 2024 07:55:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-03 21:30:10.595343
- Title: Show Less, Instruct More: Enriching Prompts with Definitions and Guidelines for Zero-Shot NER
- Title(参考訳): ゼロショットNERの定義とガイドラインによるプロンプトの強化
- Authors: Andrew Zamai, Andrea Zugarini, Leonardo Rigutini, Marco Ernandes, Marco Maggini,
- Abstract要約: より少ない例でモデルに指示することで、未確認のエンティティタグに対処するために設計されたSLIMERを提案する。
実験では、特に目に見えない名前付きエンティティをラベル付けする場合、定義とガイドラインがより良いパフォーマンス、より速く、より堅牢な学習をもたらすことを示した。
- 参考スコア(独自算出の注目度): 3.4998124138877786
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, several specialized instruction-tuned Large Language Models (LLMs) for Named Entity Recognition (NER) have emerged. Compared to traditional NER approaches, these models have strong generalization capabilities. Existing LLMs mainly focus on zero-shot NER in out-of-domain distributions, being fine-tuned on an extensive number of entity classes that often highly or completely overlap with test sets. In this work instead, we propose SLIMER, an approach designed to tackle never-seen-before named entity tags by instructing the model on fewer examples, and by leveraging a prompt enriched with definition and guidelines. Experiments demonstrate that definition and guidelines yield better performance, faster and more robust learning, particularly when labelling unseen Named Entities. Furthermore, SLIMER performs comparably to state-of-the-art approaches in out-of-domain zero-shot NER, while being trained on a reduced tag set.
- Abstract(参考訳): 近年,名前付きエンティティ認識(NER)のためのLLM(Large Language Models)がいくつか出現している。
従来のNERアプローチと比較して、これらのモデルは強力な一般化能力を持つ。
既存のLLMは主にドメイン外分布におけるゼロショットのNERに焦点を当てており、テストセットと高いあるいは完全に重複する多数のエンティティクラスに微調整されている。
そこで本研究では,より少ない例でモデルを指示し,定義とガイドラインに富んだプロンプトを活用することによって,これまで見てきたようなエンティティタグに対処するアプローチであるSLIMERを提案する。
実験では、特に目に見えない名前付きエンティティをラベル付けする場合、定義とガイドラインがより良いパフォーマンス、より速く、より堅牢な学習をもたらすことを示した。
さらに、SLIMERは、タグセットの縮小を訓練しながら、ドメイン外ゼロショットNERにおける最先端のアプローチと互換性がある。
関連論文リスト
- ReverseNER: A Self-Generated Example-Driven Framework for Zero-Shot Named Entity Recognition with Large Language Models [0.0]
ゼロショット名前付きエンティティ認識タスクにおいて,大規模言語モデル(LLM)の限界を克服するためのフレームワークであるReverseNERを提案する。
文から始めるのではなく、LLMを使用して定義に基づいてエンティティを生成し、それらを全文に拡張する。
その結果,タスク文と意味的・構造的類似性を保ちながら,明確にラベル付けされたエンティティを持つ注釈付き文が得られた。
論文 参考訳(メタデータ) (2024-11-01T12:08:08Z) - ProgGen: Generating Named Entity Recognition Datasets Step-by-step with Self-Reflexive Large Language Models [25.68491572293656]
大規模言語モデルは、名前付きエンティティ認識のような構造化された知識抽出タスクにおいて不足する。
本稿では,より優れたNERデータセットを生成するため,LCMを質素なNER能力で活用するための革新的で費用効率のよい戦略について検討する。
論文 参考訳(メタデータ) (2024-03-17T06:12:43Z) - In-Context Learning for Few-Shot Nested Named Entity Recognition [53.55310639969833]
数発のネストネストNERの設定に有効で革新的なICLフレームワークを導入する。
我々は、新しい実演選択機構であるEnDe retrieverを考案し、ICLプロンプトを改善する。
EnDe検索では,意味的類似性,境界類似性,ラベル類似性という3種類の表現学習を行うために,コントラスト学習を用いる。
論文 参考訳(メタデータ) (2024-02-02T06:57:53Z) - GLiNER: Generalist Model for Named Entity Recognition using
Bidirectional Transformer [4.194768796374315]
名前付きエンティティ認識(NER)は、様々な自然言語処理(NLP)アプリケーションに必須である。
本稿では,任意の種類のエンティティを識別するために訓練されたコンパクトなNERモデルを提案する。
我々のモデルであるGLiNERは、Large Language Models (LLM) の遅いシーケンシャルトークン生成に対するアドバンテージである並列エンティティ抽出を容易にする。
論文 参考訳(メタデータ) (2023-11-14T20:39:12Z) - NERetrieve: Dataset for Next Generation Named Entity Recognition and
Retrieval [49.827932299460514]
我々は、大きな言語モデルによって提供される能力は、NER研究の終わりではなく、むしろエキサイティングな始まりであると主張する。
我々は、NERタスクの3つの変種と、それらをサポートするデータセットを示す。
500のエンティティタイプをカバーする400万段落の,大規模で銀の注釈付きコーパスを提供する。
論文 参考訳(メタデータ) (2023-10-22T12:23:00Z) - Named Entity Recognition via Machine Reading Comprehension: A Multi-Task
Learning Approach [50.12455129619845]
Named Entity Recognition (NER) は、テキスト内のエンティティの参照を事前に定義された型に抽出し、分類することを目的としている。
我々は,MRCベースのNERを改善するために,エンティティタイプ間のラベル依存性をマルチタスク学習フレームワークに組み込むことを提案する。
論文 参考訳(メタデータ) (2023-09-20T03:15:05Z) - ContrastNER: Contrastive-based Prompt Tuning for Few-shot NER [0.6562256987706128]
本稿では、離散トークンと連続トークンの両方をプロンプトに用い、コントラストNERというプロンプトベースのNERフレームワークを提案し、コントラスト学習アプローチを用いて連続プロンプトの学習とエンティティタイプ予測を行う。
実験結果から,ContrastNERは,高リソース環境での最先端NER手法の競合性能と,低リソース環境での最先端NERモデルよりも優れた性能を示し,迅速な工学設計や言語化設計を必要としない。
論文 参考訳(メタデータ) (2023-05-29T08:24:42Z) - Nested Named Entity Recognition as Holistic Structure Parsing [92.8397338250383]
本研究は,文中の全入れ子NEを全体構造としてモデル化し,全体構造解析アルゴリズムを提案する。
実験により、我々のモデルは、最先端にアプローチしたり、あるいは達成したりするような、広く使われているベンチマークで有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2022-04-17T12:48:20Z) - MINER: Improving Out-of-Vocabulary Named Entity Recognition from an
Information Theoretic Perspective [57.19660234992812]
NERモデルは標準のNERベンチマークで有望な性能を達成した。
近年の研究では、従来のアプローチはエンティティ参照情報に過度に依存し、OoV(out-of-vocabulary)エンティティ認識の性能が劣っていることが示されている。
我々は、情報理論の観点からこの問題を改善するための新しいNER学習フレームワークであるMINERを提案する。
論文 参考訳(メタデータ) (2022-04-09T05:18:20Z) - Focusing on Potential Named Entities During Active Label Acquisition [0.0]
名前付きエンティティ認識(NER)は、構造化されていないテキスト中の名前付きエンティティの参照を識別することを目的としている。
多くのドメイン固有のNERアプリケーションは、まだかなりの量のラベル付きデータを要求する。
本稿では,長すぎるか短すぎる文をペナル化するための,データ駆動正規化手法を提案する。
論文 参考訳(メタデータ) (2021-11-06T09:04:16Z) - Distantly-Supervised Named Entity Recognition with Noise-Robust Learning
and Language Model Augmented Self-Training [66.80558875393565]
遠距離ラベル付きデータのみを用いて、名前付きエンティティ認識(NER)モデルを訓練する際の課題について検討する。
本稿では,新しい損失関数と雑音ラベル除去ステップからなるノイズロスバスト学習手法を提案する。
提案手法は,既存の遠隔教師付きNERモデルよりも優れた性能を実現する。
論文 参考訳(メタデータ) (2021-09-10T17:19:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。