論文の概要: Improving Few-Shot Cross-Domain Named Entity Recognition by Instruction Tuning a Word-Embedding based Retrieval Augmented Large Language Model
- arxiv url: http://arxiv.org/abs/2411.00451v1
- Date: Fri, 01 Nov 2024 08:57:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 21:27:47.050854
- Title: Improving Few-Shot Cross-Domain Named Entity Recognition by Instruction Tuning a Word-Embedding based Retrieval Augmented Large Language Model
- Title(参考訳): 単語埋め込みに基づく検索拡張大言語モデルに基づく命令調整によるFew-Shotクロスドメインエンティティ認識の改善
- Authors: Subhadip Nandi, Neeraj Agrawal,
- Abstract要約: Few-Shot Cross-Domain NERは、データ豊富なソースドメインからの知識を活用して、データ不足のターゲットドメイン上でエンティティ認識を実行するプロセスである。
名前付きエンティティ認識のための検索拡張大言語モデルIF-WRANERを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Few-Shot Cross-Domain NER is the process of leveraging knowledge from data-rich source domains to perform entity recognition on data scarce target domains. Most previous state-of-the-art (SOTA) approaches use pre-trained language models (PLMs) for cross-domain NER. However, these models are often domain specific. To successfully use these models for new target domains, we need to modify either the model architecture or perform model finetuning using data from the new domains. Both of these result in the creation of entirely new NER models for each target domain which is infeasible for practical scenarios. Recently,several works have attempted to use LLMs to solve Few-Shot Cross-Domain NER. However, most of these are either too expensive for practical purposes or struggle to follow LLM prompt instructions. In this paper, we propose IF-WRANER (Instruction Finetuned Word-embedding based Retrieval Augmented large language model for Named Entity Recognition), a retrieval augmented LLM, finetuned for the NER task. By virtue of the regularization techniques used during LLM finetuning and the adoption of word-level embedding over sentence-level embedding during the retrieval of in-prompt examples, IF-WRANER is able to outperform previous SOTA Few-Shot Cross-Domain NER approaches. We have demonstrated the effectiveness of our model by benchmarking its performance on the open source CrossNER dataset, on which it shows more than 2% F1 score improvement over the previous SOTA model. We have deployed the model for multiple customer care domains of an enterprise. Accurate entity prediction through IF-WRANER helps direct customers to automated workflows for the domains, thereby reducing escalations to human agents by almost 15% and leading to millions of dollars in yearly savings for the company.
- Abstract(参考訳): Few-Shot Cross-Domain NERは、データ豊富なソースドメインからの知識を活用して、データ不足のターゲットドメイン上でエンティティ認識を実行するプロセスである。
従来のSOTA(State-of-the-art)アプローチでは、クロスドメインNERのために事前訓練された言語モデル(PLM)を使用していた。
しかし、これらのモデルはドメイン固有であることが多い。
これらのモデルを新しいターゲットドメインにうまく利用するには、モデルアーキテクチャを変更したり、新しいドメインのデータを使ってモデル微調整を行う必要がある。
どちらも、現実的なシナリオでは実現不可能な、ターゲットドメインごとに全く新しいNERモデルを作成することになる。
近年,Few-Shot Cross-Domain NER の解決に LLM の利用が試みられている。
しかし、これらの多くは実用上は高価すぎるか、LSMの指示に従うのに苦労している。
本稿では,NERタスクを微調整した検索用LLMであるIF-WRANER(Instruction Finetuned Word-embedding based Retrieval Augmented large language model for Named Entity Recognition)を提案する。
IF-WRANERは, LLMファインタニングにおける正規化手法と, 文レベルの埋め込みによる単語レベルの埋め込みの導入により, 従来のSOTA Few-Shot Cross-Domain NER手法よりも優れていた。
我々は,従来のSOTAモデルよりも2%以上のF1スコア向上を示すオープンソースCrossNERデータセット上で,その性能をベンチマークすることで,本モデルの有効性を実証した。
企業内の複数のカスタマケアドメインのモデルをデプロイしました。
IF-WRANERによる正確なエンティティ予測は、顧客がドメインのワークフローを自動化するのに役立つ。
関連論文リスト
- Learning to Generalize Unseen Domains via Multi-Source Meta Learning for Text Classification [71.08024880298613]
テキスト分類の多元的領域一般化について検討する。
本稿では、複数の参照ドメインを使用して、未知のドメインで高い精度を達成可能なモデルをトレーニングするフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-20T07:46:21Z) - Exploring User Retrieval Integration towards Large Language Models for Cross-Domain Sequential Recommendation [66.72195610471624]
Cross-Domain Sequential Recommendationは、異なるドメイン間でユーザのシーケンシャルな好みをマイニングし、転送することを目的としている。
本稿では,ユーザ検索手法を探索し,CDSRの性能向上を目的とした URLLM という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T09:19:54Z) - ProgGen: Generating Named Entity Recognition Datasets Step-by-step with Self-Reflexive Large Language Models [25.68491572293656]
大規模言語モデルは、名前付きエンティティ認識のような構造化された知識抽出タスクにおいて不足する。
本稿では,より優れたNERデータセットを生成するため,LCMを質素なNER能力で活用するための革新的で費用効率のよい戦略について検討する。
論文 参考訳(メタデータ) (2024-03-17T06:12:43Z) - Improving Domain Generalization with Domain Relations [77.63345406973097]
本稿では、モデルがトレーニングされたドメインと異なる新しいドメインに適用されたときに発生するドメインシフトに焦点を当てる。
ドメイン固有モデルを学習するためのD$3$Gという新しい手法を提案する。
以上の結果から,D$3$Gは最先端の手法より一貫して優れていた。
論文 参考訳(メタデータ) (2023-02-06T08:11:16Z) - One Model for All Domains: Collaborative Domain-Prefix Tuning for
Cross-Domain NER [92.79085995361098]
クロスドメインNERは、実践シナリオにおける低リソースの問題に対処する上で難しいタスクである。
事前学習言語モデル(PLM)によるNERモデルと、リッチリソースドメインのデータとを主に取得し、ターゲットドメインに適応させる。
テキストからテキストへの生成 PLM に基づくクロスドメイン NER のための協調的ドメイン修正チューニングを提案する。
論文 参考訳(メタデータ) (2023-01-25T05:16:43Z) - FactMix: Using a Few Labeled In-domain Examples to Generalize to
Cross-domain Named Entity Recognition [42.32824906747491]
本稿では,モデルの一般化能力を向上させるために,2段階の有理中心データ拡張手法を提案する。
いくつかのデータセットの結果から,モデルに依存しない手法はドメイン間NERタスクの性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2022-08-24T12:12:38Z) - Simple Questions Generate Named Entity Recognition Datasets [18.743889213075274]
この研究は、単純な自然言語の質問によってNERデータセットを自動的に生成する、要求対生成のアプローチを導入している。
我々のモデルは、4つの異なる領域にわたる6つのNERベンチマークにおいて、以前の弱い教師付きモデルよりも大幅に優れています。
自然言語でNERのニーズを定式化することで、アワードのようなきめ細かいエンティティタイプのためのNERモデルを構築することもできます。
論文 参考訳(メタデータ) (2021-12-16T11:44:38Z) - Enhancing the Generalization for Intent Classification and Out-of-Domain
Detection in SLU [70.44344060176952]
インテント分類は、音声言語理解(SLU)における主要な課題である
近年の研究では、余分なデータやラベルを使用することで、OOD検出性能が向上することが示されている。
本稿では、IND意図分類とOOD検出の両方をサポートしながら、INDデータのみを用いてモデルを訓練することを提案する。
論文 参考訳(メタデータ) (2021-06-28T08:27:38Z) - Zero-Resource Cross-Domain Named Entity Recognition [68.83177074227598]
既存のドメイン名付きエンティティ認識モデルは、多くのラベルなしコーパスや、ターゲットドメイン内のラベル付きNERトレーニングデータに依存している。
外部リソースを一切使用しないドメイン間NERモデルを提案する。
論文 参考訳(メタデータ) (2020-02-14T09:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。