論文の概要: ReverseNER: A Self-Generated Example-Driven Framework for Zero-Shot Named Entity Recognition with Large Language Models
- arxiv url: http://arxiv.org/abs/2411.00533v4
- Date: Wed, 25 Dec 2024 16:13:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:23:35.594731
- Title: ReverseNER: A Self-Generated Example-Driven Framework for Zero-Shot Named Entity Recognition with Large Language Models
- Title(参考訳): ReverseNER: 大規模言語モデルを用いたゼロショット名前付きエンティティ認識のための自己生成例駆動フレームワーク
- Authors: Anbang Wang, Difei Mei, Zhichao Zhang, Xiuxiu Bai, Ran Yao, Zewen Fang, Min Hu, Zhirui Cao, Haitao Sun, Yifeng Guo, Hongyao Zhou, Yu Guo,
- Abstract要約: ReverseNERは、ゼロショット名のエンティティ認識タスクにおいて、大きな言語モデルの制限を克服することを目的とした手法である。
NERの逆プロセスを通じて生成される数十のエンティティラベル付き文からなるサンプルライブラリを生成する。
LLMを用いたNER性能向上のためのエンティティレベルの自己整合性スコアリング機構を提案する。
- 参考スコア(独自算出の注目度): 9.886819209498514
- License:
- Abstract: This paper presents ReverseNER, a method aimed at overcoming the limitation of large language models (LLMs) in zero-shot named entity recognition (NER) tasks, arising from their reliance on pre-provided demonstrations. ReverseNER tackles this challenge by constructing a reliable example library composed of dozens of entity-labeled sentences, generated through the reverse process of NER. Specifically, while conventional NER methods label entities in a sentence, ReverseNER features reversing the process by using an LLM to generate entities from their definitions and subsequently expand them into full sentences. During the entity expansion process, the LLM is guided to generate sentences by replicating the structures of a set of specific \textsl{feature sentences}, extracted from the task sentences by clustering. This expansion process produces dozens of entity-labeled task-relevant sentences. After constructing the example library, the method selects several semantically similar entity-labeled examples for each task sentence as references to facilitate the LLM's entity recognition. We also propose an entity-level self-consistency scoring mechanism to improve NER performance with LLMs. Experiments show that ReverseNER significantly outperforms other zero-shot NER methods with LLMs, marking a notable improvement in NER for domains without labeled data, while declining computational resource consumption.
- Abstract(参考訳): 本稿では,ゼロショット名付きエンティティ認識(NER)タスクにおける大言語モデル(LLM)の制限を克服することを目的としたReverseNERを提案する。
ReverseNERは、NERの逆プロセスを通じて生成される数十のエンティティラベル付き文からなる信頼性の高いサンプルライブラリを構築することで、この問題に対処する。
具体的には、従来のNERメソッドが文中のエンティティをラベル付けするのに対して、ReverseNERは LLM を使用してエンティティを定義から生成し、後に全文に拡張することで、プロセスを逆転させる機能を備えている。
エンティティ拡張プロセスの間、LCMは、クラスタリングにより抽出された特定の \textsl{feature sentence} のセットの構造を複製することにより、文を生成するように誘導される。
この拡張プロセスは、数十のエンティティラベル付きタスク関連文を生成する。
サンプルライブラリを構築した後、LLMのエンティティ認識を促進するために、各タスク文に対して意味的に類似したエンティティラベル付きサンプルを参照として選択する。
LLMによるNER性能向上のためのエンティティレベルの自己整合性スコアリング機構も提案する。
実験の結果、ReverseNERは他のゼロショットNER法よりもLLMの方が優れており、ラベル付きデータを持たない領域ではNERが顕著に改善され、計算資源の消費は減少していることがわかった。
関連論文リスト
- GEIC: Universal and Multilingual Named Entity Recognition with Large Language Models [7.714969840571947]
ジェネレーションベース抽出とテキスト内分類(GEIC)の課題について紹介する。
次に,多言語GEICフレームワークであるCascadeNERを提案する。
我々はまた、Large Language Models(LLMs)用に特別に設計された最初のNERデータセットであるAnythingNERを紹介します。
論文 参考訳(メタデータ) (2024-09-17T09:32:12Z) - STORE: Streamlining Semantic Tokenization and Generative Recommendation with A Single LLM [59.08493154172207]
本稿では,意味的トークン化と生成的レコメンデーションプロセスを合理化する統合フレームワークを提案する。
我々は,意味的トークン化をテキスト・ツー・ケントタスクとして定式化し,生成的推薦をトークン・ツー・ケントタスクとして,トークン・ツー・ケント・コンストラクションタスクとテキスト・ツー・ケント補助タスクで補足する。
これらのタスクはすべて生成的な方法でフレーム化され、単一の大規模言語モデル(LLM)バックボーンを使用してトレーニングされる。
論文 参考訳(メタデータ) (2024-09-11T13:49:48Z) - Show Less, Instruct More: Enriching Prompts with Definitions and Guidelines for Zero-Shot NER [3.4998124138877786]
より少ない例でモデルを指示することで、今まで見たことのないエンティティタグに対処するためのアプローチであるSLIMERを提案する。
実験は、定義とガイドラインがより良いパフォーマンス、より速く、より堅牢な学習をもたらすことを示す。
論文 参考訳(メタデータ) (2024-07-01T13:25:33Z) - llmNER: (Zero|Few)-Shot Named Entity Recognition, Exploiting the Power of Large Language Models [1.1196013962698619]
本稿では,大規模言語モデル(LLM)を用いたゼロショットおよび少数ショットNERを実装するPythonライブラリであるllmNERについて述べる。
llmNERはプロンプトを作成し、モデルをクエリし、LLMによって返される完了を解析することができる。
ライブラリの柔軟性を示すため、2つのNERタスクでソフトウェアを検証しました。
論文 参考訳(メタデータ) (2024-06-06T22:01:59Z) - In-Context Learning for Few-Shot Nested Named Entity Recognition [53.55310639969833]
数発のネストネストNERの設定に有効で革新的なICLフレームワークを導入する。
我々は、新しい実演選択機構であるEnDe retrieverを考案し、ICLプロンプトを改善する。
EnDe検索では,意味的類似性,境界類似性,ラベル類似性という3種類の表現学習を行うために,コントラスト学習を用いる。
論文 参考訳(メタデータ) (2024-02-02T06:57:53Z) - Self-Improving for Zero-Shot Named Entity Recognition with Large Language Models [16.16724411695959]
この研究は、強力な大言語モデル(LLM)によるゼロショットNERのパフォーマンス境界を押し上げる。
LLMの自己学習能力を刺激するためにラベルのないコーパスを利用する、トレーニング不要な自己改善フレームワークを提案する。
4つのベンチマークの実験は、我々のフレームワークによって達成された大幅なパフォーマンス改善を示している。
論文 参考訳(メタデータ) (2023-11-15T12:47:52Z) - GLiNER: Generalist Model for Named Entity Recognition using
Bidirectional Transformer [4.194768796374315]
名前付きエンティティ認識(NER)は、様々な自然言語処理(NLP)アプリケーションに必須である。
本稿では,任意の種類のエンティティを識別するために訓練されたコンパクトなNERモデルを提案する。
我々のモデルであるGLiNERは、Large Language Models (LLM) の遅いシーケンシャルトークン生成に対するアドバンテージである並列エンティティ抽出を容易にする。
論文 参考訳(メタデータ) (2023-11-14T20:39:12Z) - Named Entity Recognition via Machine Reading Comprehension: A Multi-Task
Learning Approach [50.12455129619845]
Named Entity Recognition (NER) は、テキスト内のエンティティの参照を事前に定義された型に抽出し、分類することを目的としている。
我々は,MRCベースのNERを改善するために,エンティティタイプ間のラベル依存性をマルチタスク学習フレームワークに組み込むことを提案する。
論文 参考訳(メタデータ) (2023-09-20T03:15:05Z) - GPT-NER: Named Entity Recognition via Large Language Models [58.609582116612934]
GPT-NERはシーケンスラベリングタスクを言語モデルで容易に適用可能な生成タスクに変換する。
GPT-NERは、トレーニングデータの量が極めて少ない場合、低リソースかつ少数ショットのセットアップにおいて、より優れた能力を示す。
これは、ラベル付きサンプルの数が限られている実世界のNERアプリケーションにおけるGPT-NERの機能を示す。
論文 参考訳(メタデータ) (2023-04-20T16:17:26Z) - CROP: Zero-shot Cross-lingual Named Entity Recognition with Multilingual
Labeled Sequence Translation [113.99145386490639]
言語間NERは、整列した言語間表現や機械翻訳結果を通じて、言語間で知識を伝達することができる。
ゼロショット言語間NERを実現するために,クロスランガル・エンティティ・プロジェクション・フレームワーク(CROP)を提案する。
多言語ラベル付きシーケンス翻訳モデルを用いて、タグ付けされたシーケンスをターゲット言語に投影し、ターゲットの原文にラベル付けする。
論文 参考訳(メタデータ) (2022-10-13T13:32:36Z) - Nested Named Entity Recognition as Holistic Structure Parsing [92.8397338250383]
本研究は,文中の全入れ子NEを全体構造としてモデル化し,全体構造解析アルゴリズムを提案する。
実験により、我々のモデルは、最先端にアプローチしたり、あるいは達成したりするような、広く使われているベンチマークで有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2022-04-17T12:48:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。