論文の概要: $k$NN-NER: Named Entity Recognition with Nearest Neighbor Search
- arxiv url: http://arxiv.org/abs/2203.17103v1
- Date: Thu, 31 Mar 2022 15:21:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 21:07:32.312147
- Title: $k$NN-NER: Named Entity Recognition with Nearest Neighbor Search
- Title(参考訳): $k$NN-NER:一番近くで検索できるエンティティ認識
- Authors: Shuhe Wang, Xiaoya Li, Yuxian Meng, Tianwei Zhang, Rongbin Ouyang,
Jiwei Li, Guoyin Wang
- Abstract要約: $k$近くのNER$k$NN-NER)フレームワークは、トレーニングセットから取得した$k$近くの隣人を割り当てることで、エンティティラベルの配布を強化する。
$k$NN-NERは、トレーニングフェーズ中に追加の操作を必要とせず、近くの$k$近くの隣人がバニラNERモデルに検索することで、$k$NN-NERは一貫してバニラモデルよりも優れている。
- 参考スコア(独自算出の注目度): 47.901071142524906
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inspired by recent advances in retrieval augmented methods in
NLP~\citep{khandelwal2019generalization,khandelwal2020nearest,meng2021gnn}, in
this paper, we introduce a $k$ nearest neighbor NER ($k$NN-NER) framework,
which augments the distribution of entity labels by assigning $k$ nearest
neighbors retrieved from the training set. This strategy makes the model more
capable of handling long-tail cases, along with better few-shot learning
abilities. $k$NN-NER requires no additional operation during the training
phase, and by interpolating $k$ nearest neighbors search into the vanilla NER
model, $k$NN-NER consistently outperforms its vanilla counterparts: we achieve
a new state-of-the-art F1-score of 72.03 (+1.25) on the Chinese Weibo dataset
and improved results on a variety of widely used NER benchmarks. Additionally,
we show that $k$NN-NER can achieve comparable results to the vanilla NER model
with 40\% less amount of training data. Code available at
\url{https://github.com/ShannonAI/KNN-NER}.
- Abstract(参考訳): NLP〜\citep{khandelwal2019 Generalization,khandelwal2020nearest,meng2021gnn}の検索強化手法の最近の進歩に触発されて、トレーニングセットから取得した400ドル近い近隣住民を割り当ててエンティティラベルの分布を拡大するNER(k$NN-NER)フレームワークを導入した。
この戦略により、モデルはより長い尾のケースを扱えるようになり、より優れた数発の学習能力が得られる。
k$nn-nerはトレーニングフェーズで追加の操作を必要とせず、k$nearbys searchをvanilla nerモデルに補間することにより、k$nn-nerはバニラモデルよりも一貫して優れています: 中国のweiboデータセットで、最先端のf1-scoreが72.03 (+1.25)で実現され、さまざまな広く使用されているnerベンチマークで結果が向上しました。
さらに、$k$NN-NERは、トレーニングデータの40倍の量のバニラNERモデルに匹敵する結果が得られることを示す。
コードは \url{https://github.com/shannonai/knn-ner}。
関連論文リスト
- INK: Injecting kNN Knowledge in Nearest Neighbor Machine Translation [57.952478914459164]
kNN-MTは、推論中に隣接する表現に基づいて予測を円滑にするための効果的なパラダイムを提供する。
我々は,kNN近傍の表現を少数の新しいパラメータで調整することで,表現空間を円滑にするための効果的なトレーニングフレームワークINKを提案する。
4つのベンチマークデータセットでの実験では、メソッドは1.99 COMETと1.0 BLEUの平均ゲインを達成し、0.02倍のメモリ空間と1.9倍の推論速度を持つ最先端のkNN-MTシステムより優れていた。
論文 参考訳(メタデータ) (2023-06-10T08:39:16Z) - PromptNER: Prompting For Named Entity Recognition [27.501500279749475]
本稿では,少数ショットとクロスドメインNERのための最先端アルゴリズムであるPromptNERを紹介する。
PromptNERは、ConLLデータセットのF1スコアの4%(絶対)改善、GENIAデータセットの9%(絶対)改善、FewNERDデータセットの4%(絶対)改善を実現している。
論文 参考訳(メタデータ) (2023-05-24T07:38:24Z) - An Embarrassingly Easy but Strong Baseline for Nested Named Entity
Recognition [55.080101447586635]
スコア行列の空間関係をモデル化するために,コナールニューラルネットワーク(CNN)を提案する。
提案手法は, 事前学習したエンコーダと同一の手法である。
論文 参考訳(メタデータ) (2022-08-09T04:33:46Z) - NERDA-Con: Extending NER models for Continual Learning -- Integrating
Distinct Tasks and Updating Distribution Shifts [0.0]
我々は,Large Language Models (LLMs) ベースを用いた NER 学習パイプラインである NERDA-Con を提案する。
私たちの仕事が継続的学習とNERのパイプラインで活用できると信じているので、コードをオープンソースにして、NERDA-Conという同じ名前の微調整ライブラリを提供しています。
論文 参考訳(メタデータ) (2022-06-28T03:22:55Z) - Nearest Neighbor Zero-Shot Inference [68.56747574377215]
kNN-Promptは、言語モデル(LM)を用いたゼロショット推論のためのk-nearest neighbor (kNN)検索拡張手法である。
ファジィ動詞化器は、各分類ラベルを自然言語トークンのセットに自動的に関連付けることで、下流タスクのスパースkNN分布を利用する。
実験により,kNN-Promptはドメイン適応に有効であり,さらに,kNN検索に使用するモデルのサイズに応じて,検索のメリットが増加することが示された。
論文 参考訳(メタデータ) (2022-05-27T07:00:59Z) - Unified Named Entity Recognition as Word-Word Relation Classification [25.801945832005504]
我々は、統一NERを単語関係分類、すなわちW2NERとしてモデル化する新しい方法を提案する。
このアーキテクチャは、エンティティワード間の隣り合う関係を効果的にモデル化することにより、統一NERのカーネルボトルネックを解決する。
W2NERスキームに基づいて,統一NERを単語ペアの2次元グリッドとしてモデル化するニューラルネットワークフレームワークを開発する。
論文 参考訳(メタデータ) (2021-12-19T06:11:07Z) - Under-bagging Nearest Neighbors for Imbalanced Classification [63.026765294759876]
我々は,不均衡な分類問題に対して,textitunder-bagging $k$-NN (textitunder-bagging $k$-NN) というアンサンブル学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-01T14:10:38Z) - Adaptive Nearest Neighbor Machine Translation [60.97183408140499]
kNN-MTは、事前訓練されたニューラルネットワーク翻訳とトークンレベルのk-nearest-neighbor検索を組み合わせる。
従来のkNNアルゴリズムは、ターゲットトークンごとに同じ数の近傍を検索する。
ターゲットトークン毎のk個数を動的に決定する適応的kNN-MTを提案する。
論文 参考訳(メタデータ) (2021-05-27T09:27:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。