論文の概要: PUnifiedNER: a Prompting-based Unified NER System for Diverse Datasets
- arxiv url: http://arxiv.org/abs/2211.14838v1
- Date: Sun, 27 Nov 2022 14:25:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 15:02:00.586469
- Title: PUnifiedNER: a Prompting-based Unified NER System for Diverse Datasets
- Title(参考訳): PUnifiedNER: 多様なデータセットのためのプロンプトベース統一NERシステム
- Authors: Jinghui Lu, Rui Zhao, Brian Mac Namee, Fei Tan
- Abstract要約: プロンプトベース統一NERシステム(PunifiedNER)について述べる。
最大37のエンティティタイプを同時に認識できる。
いくつかのデータセットに対する最先端のドメイン固有メソッドよりも、競争力やパフォーマンスが向上します。
- 参考スコア(独自算出の注目度): 13.97033811891111
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Much of named entity recognition (NER) research focuses on developing
dataset-specific models based on data from the domain of interest, and a
limited set of related entity types. This is frustrating as each new dataset
requires a new model to be trained and stored. In this work, we present a
``versatile'' model -- the Prompting-based Unified NER system (PUnifiedNER) --
that works with data from different domains and can recognise up to 37 entity
types simultaneously, and theoretically it could be as many as possible. By
using prompt learning, PUnifiedNER is a novel approach that is able to jointly
train across multiple corpora, implementing intelligent on-demand entity
recognition. Experimental results show that PUnifiedNER leads to significant
prediction benefits compared to dataset-specific models with impressively
reduced model deployment costs. Furthermore, the performance of PUnifiedNER can
achieve competitive or even better performance than state-of-the-art
domain-specific methods for some datasets. We also perform comprehensive pilot
and ablation studies to support in-depth analysis of each component in
PUnifiedNER.
- Abstract(参考訳): 名前付きエンティティ認識(NER)研究の多くは、関心領域のデータと関連するエンティティタイプの限定セットに基づいてデータセット固有のモデルを開発することに焦点を当てている。
新しいデータセットごとに新しいモデルをトレーニングし、保存する必要があるため、これはイライラします。
本研究では,異なるドメインのデータを同時に認識し,最大37個のエンティティタイプを同時に認識できる,PromptingベースのUnified NERシステム(PUnifiedNER)である `versatile' モデルを提案する。
迅速な学習を使用することで、PUnifiedNERは、インテリジェントなオンデマンドエンティティ認識を実装し、複数のコーパスを共同でトレーニングできる新しいアプローチである。
実験の結果,PUnifiedNERは,モデル展開コストを著しく削減したデータセット固有のモデルと比較して,大きな予測上のメリットをもたらすことがわかった。
さらに、PUnifiedNERのパフォーマンスは、いくつかのデータセットに対する最先端のドメイン固有メソッドよりも、競争力やパフォーマンスが向上する。
また,PUnifiedNERの各コンポーネントの深度分析を支援するため,総合的なパイロットおよびアブレーション研究も行った。
関連論文リスト
- Evaluating Named Entity Recognition Using Few-Shot Prompting with Large Language Models [0.0]
Few-Shot PromptingやIn-context Learningは、モデルが最小限の例でエンティティを認識できるようにする。
NERタスクにおけるGPT-4のような最先端モデルの評価を行い、その数ショットのパフォーマンスと完全に教師付きベンチマークを比較した。
論文 参考訳(メタデータ) (2024-08-28T13:42:28Z) - Hybrid Multi-stage Decoding for Few-shot NER with Entity-aware Contrastive Learning [32.62763647036567]
名前付きエンティティ認識は、ラベル付けされたいくつかの例に基づいて、新しいタイプの名前付きエンティティを識別できる。
MsFNER(Entity-Aware Contrastive Learning)を用いたFew-shot NERのためのハイブリッド多段復号法を提案する。
MsFNERは一般的なNERを、エンティティスパン検出とエンティティ分類の2つのステージに分割する。
論文 参考訳(メタデータ) (2024-04-10T12:31:09Z) - In-Context Learning for Few-Shot Nested Named Entity Recognition [53.55310639969833]
数発のネストネストNERの設定に有効で革新的なICLフレームワークを導入する。
我々は、新しい実演選択機構であるEnDe retrieverを考案し、ICLプロンプトを改善する。
EnDe検索では,意味的類似性,境界類似性,ラベル類似性という3種類の表現学習を行うために,コントラスト学習を用いる。
論文 参考訳(メタデータ) (2024-02-02T06:57:53Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Batch-Ensemble Stochastic Neural Networks for Out-of-Distribution
Detection [55.028065567756066]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイすることの重要性から、マシンラーニングコミュニティから注目を集めている。
本稿では,特徴量の分布をモデル化した不確実な定量化手法を提案する。
バッチアンサンブルニューラルネットワーク(BE-SNN)の構築と機能崩壊問題の克服を目的として,効率的なアンサンブル機構,すなわちバッチアンサンブルを組み込んだ。
We show that BE-SNNs yield superior performance on the Two-Moons dataset, the FashionMNIST vs MNIST dataset, FashionM。
論文 参考訳(メタデータ) (2022-06-26T16:00:22Z) - MINER: Improving Out-of-Vocabulary Named Entity Recognition from an
Information Theoretic Perspective [57.19660234992812]
NERモデルは標準のNERベンチマークで有望な性能を達成した。
近年の研究では、従来のアプローチはエンティティ参照情報に過度に依存し、OoV(out-of-vocabulary)エンティティ認識の性能が劣っていることが示されている。
我々は、情報理論の観点からこの問題を改善するための新しいNER学習フレームワークであるMINERを提案する。
論文 参考訳(メタデータ) (2022-04-09T05:18:20Z) - NER-BERT: A Pre-trained Model for Low-Resource Entity Tagging [40.57720568571513]
比較的高品質な大規模NERコーパスを構築し,生成したデータセットに基づいてNER-BERTモデルを事前学習する。
実験結果から,当社の事前学習モデルは,低リソースシナリオにおけるBERTと他の強力なベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2021-12-01T10:45:02Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - Partially-Typed NER Datasets Integration: Connecting Practice to Theory [39.98003247485084]
部分型NERデータセットと完全型データセットの体系的解析と比較を行う。
部分的に型付けされたアノテーションでトレーニングされたモデルが、完全に型付けされたアノテーションでトレーニングされたモデルと同じようなパフォーマンスに到達できることを保証するためのバウンダリを導出します。
論文 参考訳(メタデータ) (2020-05-01T17:16:18Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。