論文の概要: LTNER: Large Language Model Tagging for Named Entity Recognition with Contextualized Entity Marking
- arxiv url: http://arxiv.org/abs/2404.05624v1
- Date: Mon, 8 Apr 2024 15:54:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 18:32:03.664202
- Title: LTNER: Large Language Model Tagging for Named Entity Recognition with Contextualized Entity Marking
- Title(参考訳): LTNER:コンテキスト化エンティティマーキングによる名前付きエンティティ認識のための大言語モデルタグ
- Authors: Faren Yan, Peng Yu, Xin Chen,
- Abstract要約: 我々は、革命的コンテキスト化エンティティマーキングゲンメソッドを組み込んだ、LTNERと呼ばれるNER処理フレームワークを開発した。
コスト効率の高いGPT-3.5と文脈学習を組み合わせることで,NERタスクの処理におけるLLMの精度を大幅に向上した。
CoNLL03データセットのF1スコアは、初期の85.9%から91.9%に増加し、監督された微調整のパフォーマンスに近づいた。
- 参考スコア(独自算出の注目度): 5.677310422950291
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The use of LLMs for natural language processing has become a popular trend in the past two years, driven by their formidable capacity for context comprehension and learning, which has inspired a wave of research from academics and industry professionals. However, for certain NLP tasks, such as NER, the performance of LLMs still falls short when compared to supervised learning methods. In our research, we developed a NER processing framework called LTNER that incorporates a revolutionary Contextualized Entity Marking Gen Method. By leveraging the cost-effective GPT-3.5 coupled with context learning that does not require additional training, we significantly improved the accuracy of LLMs in handling NER tasks. The F1 score on the CoNLL03 dataset increased from the initial 85.9% to 91.9%, approaching the performance of supervised fine-tuning. This outcome has led to a deeper understanding of the potential of LLMs.
- Abstract(参考訳): 自然言語処理におけるLLMの使用は、文脈理解と学習の力の強い能力によって、過去2年間に人気が高まっており、学者や業界専門家による研究の波を巻き起こしている。
しかし、NERのような特定のNLPタスクでは、教師付き学習法と比較して、LLMの性能は依然として不足している。
本研究では,革命的コンテキスト化エンティティマーキングゲンメソッドを組み込んだNER処理フレームワークLTNERを開発した。
コスト効率の高いGPT-3.5と、追加の訓練を必要としない文脈学習を併用することにより、NERタスクの処理におけるLLMの精度を大幅に向上する。
CoNLL03データセットのF1スコアは、初期の85.9%から91.9%に増加し、監督された微調整のパフォーマンスに近づいた。
この結果、LLMの可能性のより深い理解につながった。
関連論文リスト
- FAC$^2$E: Better Understanding Large Language Model Capabilities by
Dissociating Language and Cognition [57.747888532651]
大規模言語モデル(LLM)は、主に様々なテキスト理解および生成タスクにおける全体的なパフォーマンスによって評価される。
FAC$2$E, FAC$2$Eについて述べる。
論文 参考訳(メタデータ) (2024-02-29T21:05:37Z) - Rethinking the Roles of Large Language Models in Chinese Grammatical
Error Correction [62.409807640887834]
中国語の文法的誤り訂正(CGEC)は、入力文中のすべての文法的誤りを修正することを目的としている。
CGECの修正器としてのLLMの性能は、課題の焦点が難しいため不満足なままである。
CGECタスクにおけるLCMの役割を再考し、CGECでよりよく活用し、探索できるようにした。
論文 参考訳(メタデータ) (2024-02-18T01:40:34Z) - Pushing The Limit of LLM Capacity for Text Classification [27.684335455517417]
本稿では,特殊なテキスト分類 LLM を生成するための適応型ブースティングフレームワーク RGPT を提案する。
RGPTは,4つのベンチマークで平均1.36%,8個のSOTA PLMと7個のSOTA LLMより有意に優れていた。
論文 参考訳(メタデータ) (2024-02-12T08:14:03Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - FreeAL: Towards Human-Free Active Learning in the Era of Large Language
Models [21.88032973150393]
大規模言語モデル(LLM)からのタスク固有知識の対話的蒸留とフィルタリング
8つのベンチマークデータセットの実験では、FreeALは人間の監督なしに、SLMとLLMのゼロショット性能を大幅に向上することを示した。
論文 参考訳(メタデータ) (2023-11-27T08:23:08Z) - Speak Like a Native: Prompting Large Language Models in a Native Style [53.84738665918496]
In-context Learning (ICL) with large language model (LLMs) は、多くの自然言語処理タスクにおいて近代的なツールとなっている。
本稿では, LLMの推論能力を向上させるために, textbfAlignedCoT という新しい効果的手法を提案する。
数学的質問答え、常識的推論、テキスト理解に関するいくつかのベンチマークにおいて、広範囲かつ包括的な実験を行う。
論文 参考訳(メタデータ) (2023-11-22T17:24:21Z) - TRACE: A Comprehensive Benchmark for Continual Learning in Large
Language Models [52.734140807634624]
調整された大規模言語モデル(LLM)は、タスク解決、指示に従うこと、安全性を確保することにおいて、例外的な能力を示す。
既存の連続学習ベンチマークでは、LLMをリードする上で十分な課題が欠如している。
LLMにおける継続学習を評価するための新しいベンチマークであるTRACEを紹介する。
論文 参考訳(メタデータ) (2023-10-10T16:38:49Z) - Knowledgeable In-Context Tuning: Exploring and Exploiting Factual Knowledge for In-Context Learning [37.22349652230841]
大規模言語モデル(LLM)は、テキストベースのプロンプトとしてラベル付きトレーニング例を条件にすることで、コンテキスト内学習(ICL)を可能にする。
本稿では、3つの中核面におけるICLの性能に事実知識が不可欠であることを実証する。
In-Context Tuning (KICT) フレームワークを導入し,ICLの性能向上を図る。
論文 参考訳(メタデータ) (2023-09-26T09:06:39Z) - Rethinking Learning Rate Tuning in the Era of Large Language Models [11.87985768634266]
大規模言語モデル(LLM)は、人間のような優れた予測性能を達成するために、近年のディープラーニングの成功を表している。
ファインチューニングを活用して、様々な現実世界のアプリケーションにLLMを適用するための主要な戦略となっている。
既存の学習率ポリシは、主に従来のディープニューラルネットワーク(DNN)のトレーニング用に設計されている。
論文 参考訳(メタデータ) (2023-09-16T03:37:00Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。