論文の概要: ReverseNER: A Self-Generated Example-Driven Framework for Zero-Shot Named Entity Recognition with Large Language Models
- arxiv url: http://arxiv.org/abs/2411.00533v4
- Date: Wed, 25 Dec 2024 16:13:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:23:35.594731
- Title: ReverseNER: A Self-Generated Example-Driven Framework for Zero-Shot Named Entity Recognition with Large Language Models
- Title(参考訳): ReverseNER: 大規模言語モデルを用いたゼロショット名前付きエンティティ認識のための自己生成例駆動フレームワーク
- Authors: Anbang Wang, Difei Mei, Zhichao Zhang, Xiuxiu Bai, Ran Yao, Zewen Fang, Min Hu, Zhirui Cao, Haitao Sun, Yifeng Guo, Hongyao Zhou, Yu Guo,
- Abstract要約: ReverseNERは、ゼロショット名のエンティティ認識タスクにおいて、大きな言語モデルの制限を克服することを目的とした手法である。
NERの逆プロセスを通じて生成される数十のエンティティラベル付き文からなるサンプルライブラリを生成する。
LLMを用いたNER性能向上のためのエンティティレベルの自己整合性スコアリング機構を提案する。
- 参考スコア(独自算出の注目度): 9.886819209498514
- License:
- Abstract: This paper presents ReverseNER, a method aimed at overcoming the limitation of large language models (LLMs) in zero-shot named entity recognition (NER) tasks, arising from their reliance on pre-provided demonstrations. ReverseNER tackles this challenge by constructing a reliable example library composed of dozens of entity-labeled sentences, generated through the reverse process of NER. Specifically, while conventional NER methods label entities in a sentence, ReverseNER features reversing the process by using an LLM to generate entities from their definitions and subsequently expand them into full sentences. During the entity expansion process, the LLM is guided to generate sentences by replicating the structures of a set of specific \textsl{feature sentences}, extracted from the task sentences by clustering. This expansion process produces dozens of entity-labeled task-relevant sentences. After constructing the example library, the method selects several semantically similar entity-labeled examples for each task sentence as references to facilitate the LLM's entity recognition. We also propose an entity-level self-consistency scoring mechanism to improve NER performance with LLMs. Experiments show that ReverseNER significantly outperforms other zero-shot NER methods with LLMs, marking a notable improvement in NER for domains without labeled data, while declining computational resource consumption.
- Abstract(参考訳): 本稿では,ゼロショット名付きエンティティ認識(NER)タスクにおける大言語モデル(LLM)の制限を克服することを目的としたReverseNERを提案する。
ReverseNERは、NERの逆プロセスを通じて生成される数十のエンティティラベル付き文からなる信頼性の高いサンプルライブラリを構築することで、この問題に対処する。
具体的には、従来のNERメソッドが文中のエンティティをラベル付けするのに対して、ReverseNERは LLM を使用してエンティティを定義から生成し、後に全文に拡張することで、プロセスを逆転させる機能を備えている。
エンティティ拡張プロセスの間、LCMは、クラスタリングにより抽出された特定の \textsl{feature sentence} のセットの構造を複製することにより、文を生成するように誘導される。
この拡張プロセスは、数十のエンティティラベル付きタスク関連文を生成する。
サンプルライブラリを構築した後、LLMのエンティティ認識を促進するために、各タスク文に対して意味的に類似したエンティティラベル付きサンプルを参照として選択する。
LLMによるNER性能向上のためのエンティティレベルの自己整合性スコアリング機構も提案する。
実験の結果、ReverseNERは他のゼロショットNER法よりもLLMの方が優れており、ラベル付きデータを持たない領域ではNERが顕著に改善され、計算資源の消費は減少していることがわかった。
関連論文リスト
- "I've Heard of You!": Generate Spoken Named Entity Recognition Data for Unseen Entities [59.22329574700317]
名前付きエンティティ認識(NER)は、名前付きエンティティを音声から識別することを目的としている。
しかし、新しい名前のエンティティが毎日現れ、Spoken NERデータに注釈をつけるのはコストがかかる。
そこで本稿では,NEDに基づく音声NERデータ生成手法を提案する。
論文 参考訳(メタデータ) (2024-12-26T07:43:18Z) - Enhancing Item Tokenization for Generative Recommendation through Self-Improvement [67.94240423434944]
生成レコメンデーションシステムは大規模言語モデル(LLM)によって駆動される
現在のアイテムトークン化手法には、テキスト記述、数値文字列、離散トークンのシーケンスの使用が含まれる。
自己改善アイテムトークン化手法を提案し,LLMがトレーニングプロセス中に独自のアイテムトークン化を洗練できるようにする。
論文 参考訳(メタデータ) (2024-12-22T21:56:15Z) - GEIC: Universal and Multilingual Named Entity Recognition with Large Language Models [7.714969840571947]
ジェネレーションベース抽出とテキスト内分類(GEIC)の課題について紹介する。
次に,多言語GEICフレームワークであるCascadeNERを提案する。
我々はまた、Large Language Models(LLMs)用に特別に設計された最初のNERデータセットであるAnythingNERを紹介します。
論文 参考訳(メタデータ) (2024-09-17T09:32:12Z) - STORE: Streamlining Semantic Tokenization and Generative Recommendation with A Single LLM [59.08493154172207]
本稿では,意味的トークン化と生成的レコメンデーションプロセスを合理化する統合フレームワークを提案する。
我々は,意味的トークン化をテキスト・ツー・ケントタスクとして定式化し,生成的推薦をトークン・ツー・ケントタスクとして,トークン・ツー・ケント・コンストラクションタスクとテキスト・ツー・ケント補助タスクで補足する。
これらのタスクはすべて生成的な方法でフレーム化され、単一の大規模言語モデル(LLM)バックボーンを使用してトレーニングされる。
論文 参考訳(メタデータ) (2024-09-11T13:49:48Z) - llmNER: (Zero|Few)-Shot Named Entity Recognition, Exploiting the Power of Large Language Models [1.1196013962698619]
本稿では,大規模言語モデル(LLM)を用いたゼロショットおよび少数ショットNERを実装するPythonライブラリであるllmNERについて述べる。
llmNERはプロンプトを作成し、モデルをクエリし、LLMによって返される完了を解析することができる。
ライブラリの柔軟性を示すため、2つのNERタスクでソフトウェアを検証しました。
論文 参考訳(メタデータ) (2024-06-06T22:01:59Z) - ProgGen: Generating Named Entity Recognition Datasets Step-by-step with Self-Reflexive Large Language Models [25.68491572293656]
大規模言語モデルは、名前付きエンティティ認識のような構造化された知識抽出タスクにおいて不足する。
本稿では,より優れたNERデータセットを生成するため,LCMを質素なNER能力で活用するための革新的で費用効率のよい戦略について検討する。
論文 参考訳(メタデータ) (2024-03-17T06:12:43Z) - In-Context Learning for Few-Shot Nested Named Entity Recognition [53.55310639969833]
数発のネストネストNERの設定に有効で革新的なICLフレームワークを導入する。
我々は、新しい実演選択機構であるEnDe retrieverを考案し、ICLプロンプトを改善する。
EnDe検索では,意味的類似性,境界類似性,ラベル類似性という3種類の表現学習を行うために,コントラスト学習を用いる。
論文 参考訳(メタデータ) (2024-02-02T06:57:53Z) - GLiNER: Generalist Model for Named Entity Recognition using
Bidirectional Transformer [4.194768796374315]
名前付きエンティティ認識(NER)は、様々な自然言語処理(NLP)アプリケーションに必須である。
本稿では,任意の種類のエンティティを識別するために訓練されたコンパクトなNERモデルを提案する。
我々のモデルであるGLiNERは、Large Language Models (LLM) の遅いシーケンシャルトークン生成に対するアドバンテージである並列エンティティ抽出を容易にする。
論文 参考訳(メタデータ) (2023-11-14T20:39:12Z) - Named Entity Recognition via Machine Reading Comprehension: A Multi-Task
Learning Approach [50.12455129619845]
Named Entity Recognition (NER) は、テキスト内のエンティティの参照を事前に定義された型に抽出し、分類することを目的としている。
我々は,MRCベースのNERを改善するために,エンティティタイプ間のラベル依存性をマルチタスク学習フレームワークに組み込むことを提案する。
論文 参考訳(メタデータ) (2023-09-20T03:15:05Z) - GPT-NER: Named Entity Recognition via Large Language Models [58.609582116612934]
GPT-NERはシーケンスラベリングタスクを言語モデルで容易に適用可能な生成タスクに変換する。
GPT-NERは、トレーニングデータの量が極めて少ない場合、低リソースかつ少数ショットのセットアップにおいて、より優れた能力を示す。
これは、ラベル付きサンプルの数が限られている実世界のNERアプリケーションにおけるGPT-NERの機能を示す。
論文 参考訳(メタデータ) (2023-04-20T16:17:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。