論文の概要: KARL-Trans-NER: Knowledge Aware Representation Learning for Named Entity
Recognition using Transformers
- arxiv url: http://arxiv.org/abs/2111.15436v1
- Date: Tue, 30 Nov 2021 14:29:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 19:07:16.503852
- Title: KARL-Trans-NER: Knowledge Aware Representation Learning for Named Entity
Recognition using Transformers
- Title(参考訳): KARL-Trans-NER:トランスフォーマを用いた名前付きエンティティ認識のための知識認識表現学習
- Authors: Avi Chawla, Nidhi Mulay, Vikas Bishnoi, Gaurav Dhama
- Abstract要約: 名前付きエンティティ認識(NER)のための知識認識表現学習(KARL)ネットワークを提案する。
KARLは、ファクトトリプレットとして表される大きな知識ベースを利用し、それらをコンテキストに変換し、内部に存在する必須情報を抽出して、特徴拡張のためのコンテキスト化三重項表現を生成するトランスフォーマーに基づいている。
実験結果から,KARL を用いた拡張は NER システムの性能を大幅に向上させ,既存の 3 つの NER データセット(CoNLL 2003,CoNLL++,OntoNotes v5 など)の文献上のアプローチよりもはるかに優れた結果が得られることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The inception of modeling contextual information using models such as BERT,
ELMo, and Flair has significantly improved representation learning for words.
It has also given SOTA results in almost every NLP task - Machine Translation,
Text Summarization and Named Entity Recognition, to name a few. In this work,
in addition to using these dominant context-aware representations, we propose a
Knowledge Aware Representation Learning (KARL) Network for Named Entity
Recognition (NER). We discuss the challenges of using existing methods in
incorporating world knowledge for NER and show how our proposed methods could
be leveraged to overcome those challenges. KARL is based on a Transformer
Encoder that utilizes large knowledge bases represented as fact triplets,
converts them to a graph context, and extracts essential entity information
residing inside to generate contextualized triplet representation for feature
augmentation. Experimental results show that the augmentation done using KARL
can considerably boost the performance of our NER system and achieve
significantly better results than existing approaches in the literature on
three publicly available NER datasets, namely CoNLL 2003, CoNLL++, and
OntoNotes v5. We also observe better generalization and application to a
real-world setting from KARL on unseen entities.
- Abstract(参考訳): bert、elmo、flairなどのモデルを用いた文脈情報モデリングの開始は、単語の表現学習を大幅に改善した。
また、ほとんどすべてのNLPタスク – 機械翻訳、テキスト要約、名前付きエンティティ認識 – において、SOTA結果が与えられた。
本研究では,これらの支配的文脈認識表現に加えて,名前付きエンティティ認識(NER)のための知識認識表現学習(KARL)ネットワークを提案する。
我々は,NERの世界の知識を取り入れた既存手法の課題について議論し,これらの課題を克服するために提案手法をどのように活用できるかを示す。
KARLは、ファクトトリプレットとして表される大きな知識ベースを利用し、それらをグラフコンテキストに変換し、内部に存在する重要なエンティティ情報を抽出して、特徴拡張のためのコンテキスト化三重項表現を生成するトランスフォーマーエンコーダに基づいている。
実験結果から,KARL を用いた拡張は NER システムの性能を大幅に向上させ,既存の 3 つの NER データセット(CoNLL 2003,CoNLL++,OntoNotes v5 など)の文献上のアプローチよりもはるかに優れた結果が得られることが示された。
また、より優れた一般化と実世界の設定への応用をkarl on unseen entitiesで観察する。
関連論文リスト
- In-Context Learning for Few-Shot Nested Named Entity Recognition [53.55310639969833]
数発のネストネストNERの設定に有効で革新的なICLフレームワークを導入する。
我々は、新しい実演選択機構であるEnDe retrieverを考案し、ICLプロンプトを改善する。
EnDe検索では,意味的類似性,境界類似性,ラベル類似性という3種類の表現学習を行うために,コントラスト学習を用いる。
論文 参考訳(メタデータ) (2024-02-02T06:57:53Z) - NERetrieve: Dataset for Next Generation Named Entity Recognition and
Retrieval [49.827932299460514]
我々は、大きな言語モデルによって提供される能力は、NER研究の終わりではなく、むしろエキサイティングな始まりであると主張する。
我々は、NERタスクの3つの変種と、それらをサポートするデータセットを示す。
500のエンティティタイプをカバーする400万段落の,大規模で銀の注釈付きコーパスを提供する。
論文 参考訳(メタデータ) (2023-10-22T12:23:00Z) - IXA/Cogcomp at SemEval-2023 Task 2: Context-enriched Multilingual Named
Entity Recognition using Knowledge Bases [53.054598423181844]
3つのステップからなる新しいNERカスケードアプローチを提案する。
我々は、細粒度および新興物質を正確に分類する上で、外部知識基盤の重要性を実証的に示す。
本システムは,低リソース言語設定においても,マルチコネラ2共有タスクにおいて頑健な性能を示す。
論文 参考訳(メタデータ) (2023-04-20T20:30:34Z) - MINER: Improving Out-of-Vocabulary Named Entity Recognition from an
Information Theoretic Perspective [57.19660234992812]
NERモデルは標準のNERベンチマークで有望な性能を達成した。
近年の研究では、従来のアプローチはエンティティ参照情報に過度に依存し、OoV(out-of-vocabulary)エンティティ認識の性能が劣っていることが示されている。
我々は、情報理論の観点からこの問題を改善するための新しいNER学習フレームワークであるMINERを提案する。
論文 参考訳(メタデータ) (2022-04-09T05:18:20Z) - Distantly-Supervised Named Entity Recognition with Noise-Robust Learning
and Language Model Augmented Self-Training [66.80558875393565]
遠距離ラベル付きデータのみを用いて、名前付きエンティティ認識(NER)モデルを訓練する際の課題について検討する。
本稿では,新しい損失関数と雑音ラベル除去ステップからなるノイズロスバスト学習手法を提案する。
提案手法は,既存の遠隔教師付きNERモデルよりも優れた性能を実現する。
論文 参考訳(メタデータ) (2021-09-10T17:19:56Z) - AutoTriggER: Label-Efficient and Robust Named Entity Recognition with
Auxiliary Trigger Extraction [54.20039200180071]
我々は,エンティティトリガの自動生成と活用によるNER性能向上のための新しいフレームワークを提案する。
筆者らのフレームワークは,ポストホックな説明を活用して合理的な知識を生成し,埋め込み手法を用いてモデルの事前知識を強化する。
AutoTriggERは強力なラベル効率を示し、目に見えないエンティティを一般化し、RoBERTa-CRFベースラインを平均0.5F1ポイント上回る性能を持つ。
論文 参考訳(メタデータ) (2021-09-10T08:11:56Z) - Empirical Study of Named Entity Recognition Performance Using
Distribution-aware Word Embedding [15.955385058787348]
そこで我々は,NERフレームワークにおける分散情報を利用するために,分散対応単語埋め込みを開発し,三つの異なる手法を実装した。
単語特異性が既存のNERメソッドに組み込まれれば、NERのパフォーマンスが向上する。
論文 参考訳(メタデータ) (2021-09-03T17:28:04Z) - Improving Named Entity Recognition with Attentive Ensemble of Syntactic
Information [36.03316058182617]
名前付きエンティティ認識(NER)は、セマンティック・セマンティック・セマンティック・プロパティに非常に敏感である。
本稿では,暗黙のアンサンブルによって異なるタイプの構文情報を活用することにより,NERを改善する。
6つの英語と中国語のベンチマークデータセットの実験結果から,提案手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-10-29T10:25:17Z) - ASTRAL: Adversarial Trained LSTM-CNN for Named Entity Recognition [16.43239147870092]
本稿では,モデル構造とトレーニングプロセスの両方から,現在のNER法を改善するためのLSTM-CNN(ASTRAL)システムを提案する。
提案システムは,CoNLL-03,OntoNotes 5.0,WNUT-17の3つのベンチマークで評価し,最先端の結果を得た。
論文 参考訳(メタデータ) (2020-09-02T13:15:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。