論文の概要: Less than One-shot: Named Entity Recognition via Extremely Weak
Supervision
- arxiv url: http://arxiv.org/abs/2311.02861v1
- Date: Mon, 6 Nov 2023 04:20:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 15:24:28.341036
- Title: Less than One-shot: Named Entity Recognition via Extremely Weak
Supervision
- Title(参考訳): ワンショット以下の:Extremely Weak Supervisionによる名前付きエンティティ認識
- Authors: Letian Peng, Zihan Wang, Jingbo Shang
- Abstract要約: 極端に弱い監督環境下で、名前付きエンティティ認識問題について検討する。
そこで本稿では,最先端のワンショットNER法より優れたX-NERを提案する。
X-NERは、基礎となる言語モデルの言語間能力の継承など、いくつかの特筆すべき特性を持っている。
- 参考スコア(独自算出の注目度): 46.81604901567282
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the named entity recognition (NER) problem under the extremely weak
supervision (XWS) setting, where only one example entity per type is given in a
context-free way. While one can see that XWS is lighter than one-shot in terms
of the amount of supervision, we propose a novel method X-NER that can
outperform the state-of-the-art one-shot NER methods. We first mine entity
spans that are similar to the example entities from an unlabelled training
corpus. Instead of utilizing entity span representations from language models,
we find it more effective to compare the context distributions before and after
the span is replaced by the entity example. We then leverage the top-ranked
spans as pseudo-labels to train an NER tagger. Extensive experiments and
analyses on 4 NER datasets show the superior end-to-end NER performance of
X-NER, outperforming the state-of-the-art few-shot methods with 1-shot
supervision and ChatGPT annotations significantly. Finally, our X-NER possesses
several notable properties, such as inheriting the cross-lingual abilities of
the underlying language models.
- Abstract(参考訳): 名前付きエンティティ認識(NER)の問題を極端に弱い監督(XWS)設定で検討し、1つの型に1つの例を文脈自由な方法で与える。
監視量の観点からは,XWSがワンショットよりも軽いことが分かるが,最先端のワンショットNER法よりも優れた新しい手法であるX-NERを提案する。
まず、ラベルなしのトレーニングコーパスから、例のエンティティに類似したエンティティスパンをマイニングします。
言語モデルからエンティティスパン表現を利用する代わりに、スパンがエンティティの例に置き換えられる前後のコンテキスト分布を比較する方が効果的である。
次に、上位のスパンを擬似ラベルとして活用して、NERタグをトレーニングします。
4つのNERデータセットの大規模な実験と解析により、X-NERのエンドツーエンドのNER性能が向上し、1ショットの監視とChatGPTアノテーションで最先端の数ショット法よりも大幅に向上した。
最後に、我々のX-NERは、基礎となる言語モデルの言語間能力の継承など、いくつかの注目すべき特性を持っている。
関連論文リスト
- Hybrid Multi-stage Decoding for Few-shot NER with Entity-aware Contrastive Learning [32.62763647036567]
名前付きエンティティ認識は、ラベル付けされたいくつかの例に基づいて、新しいタイプの名前付きエンティティを識別できる。
MsFNER(Entity-Aware Contrastive Learning)を用いたFew-shot NERのためのハイブリッド多段復号法を提案する。
MsFNERは一般的なNERを、エンティティスパン検出とエンティティ分類の2つのステージに分割する。
論文 参考訳(メタデータ) (2024-04-10T12:31:09Z) - In-Context Learning for Few-Shot Nested Named Entity Recognition [53.55310639969833]
数発のネストネストNERの設定に有効で革新的なICLフレームワークを導入する。
我々は、新しい実演選択機構であるEnDe retrieverを考案し、ICLプロンプトを改善する。
EnDe検索では,意味的類似性,境界類似性,ラベル類似性という3種類の表現学習を行うために,コントラスト学習を用いる。
論文 参考訳(メタデータ) (2024-02-02T06:57:53Z) - NERetrieve: Dataset for Next Generation Named Entity Recognition and
Retrieval [49.827932299460514]
我々は、大きな言語モデルによって提供される能力は、NER研究の終わりではなく、むしろエキサイティングな始まりであると主張する。
我々は、NERタスクの3つの変種と、それらをサポートするデータセットを示す。
500のエンティティタイプをカバーする400万段落の,大規模で銀の注釈付きコーパスを提供する。
論文 参考訳(メタデータ) (2023-10-22T12:23:00Z) - PromptNER: A Prompting Method for Few-shot Named Entity Recognition via
k Nearest Neighbor Search [56.81939214465558]
本稿では,近距離探索による数発NERの新規プロンプト法であるPromptNERを提案する。
我々は、エンティティカテゴリ情報を含むプロンプトを使用してラベルのプロトタイプを構築する。
Few-NERDデータセットとCrossNERデータセットの広範な実験により,本モデルが最先端手法よりも優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-05-20T15:47:59Z) - DualNER: A Dual-Teaching framework for Zero-shot Cross-lingual Named
Entity Recognition [27.245171237640502]
DualNERは、注釈付きソース言語コーパスとラベルなしターゲット言語テキストの両方をフル活用するためのフレームワークである。
NERの2つの相補的な学習パラダイム、すなわちシーケンスラベリングとスパン予測を統合マルチタスクフレームワークに統合する。
論文 参考訳(メタデータ) (2022-11-15T12:50:59Z) - CROP: Zero-shot Cross-lingual Named Entity Recognition with Multilingual
Labeled Sequence Translation [113.99145386490639]
言語間NERは、整列した言語間表現や機械翻訳結果を通じて、言語間で知識を伝達することができる。
ゼロショット言語間NERを実現するために,クロスランガル・エンティティ・プロジェクション・フレームワーク(CROP)を提案する。
多言語ラベル付きシーケンス翻訳モデルを用いて、タグ付けされたシーケンスをターゲット言語に投影し、ターゲットの原文にラベル付けする。
論文 参考訳(メタデータ) (2022-10-13T13:32:36Z) - Optimizing Bi-Encoder for Named Entity Recognition via Contrastive
Learning [80.36076044023581]
名前付きエンティティ認識(NER)のための効率的なバイエンコーダフレームワークを提案する。
我々はNERを、エンティティ参照のベクトル表現とその型との類似性を最大化する計量学習問題とみなす。
NERのこのバイエンコーダの定式化における大きな課題は、エンティティの言及から非エンゲージスを分離することにある。
論文 参考訳(メタデータ) (2022-08-30T23:19:04Z) - A Realistic Study of Auto-regressive Language Models for Named Entity
Typing and Recognition [7.345578385749421]
メタ学習装置を用いて、名前付きエンティティ認識のための事前学習言語モデルについて検討する。
まず、ゼロショット転送シナリオにおいて、名前付きエンティティ型付け(NET)をテストする。次に、推論の例をいくつか挙げて、NERを実行する。
本稿では,事前学習したモデルにのみアクセス可能で,これらのグループについて報告する際,見知らぬ名前や稀な名前を選択する手法を提案する。
論文 参考訳(メタデータ) (2021-08-26T15:29:00Z) - TriggerNER: Learning with Entity Triggers as Explanations for Named
Entity Recognition [42.984048204280676]
我々は、NERモデルのラベル効率の学習を容易にするために、人間による説明の効果的なプロキシである「エンタリティトリガー」を導入する。
私たちは2つのよく研究されたNERデータセットに対して、14kエンティティトリガをクラウドソースしました。
提案モデルであるTrigger Matching Networkは,自己注意によるトリガー表現とソフトマッチングモジュールを共同で学習する。
論文 参考訳(メタデータ) (2020-04-16T07:27:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。