論文の概要: WCL-BBCD: A Contrastive Learning and Knowledge Graph Approach to Named
Entity Recognition
- arxiv url: http://arxiv.org/abs/2203.06925v1
- Date: Mon, 14 Mar 2022 08:29:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 14:11:19.200286
- Title: WCL-BBCD: A Contrastive Learning and Knowledge Graph Approach to Named
Entity Recognition
- Title(参考訳): WCL-BBCD: 名前付きエンティティ認識のためのコントラスト学習と知識グラフアプローチ
- Authors: Renjie Zhou, Qiang Hu, Jian Wan, Jilin Zhang, Qiang Liu, Tianxiang Hu,
Jianjun Li
- Abstract要約: WCL-BBCD (Word Contrastive Learning with BERT-BiLSTM-CRF-DBpedia)を提案する。
モデルはまずテキスト中の文ペアを訓練し、コサイン類似性により文ペア内の単語間の類似度を計算し、その類似性を通じて名前付きエンティティ認識タスクに使用されるBERTモデルを微調整する。
最後に、単語短縮による認識を緩和するため、認識結果を知識グラフなどの事前知識と組み合わせて補正する。
- 参考スコア(独自算出の注目度): 15.446770390648874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Named Entity Recognition task is one of the core tasks of information
extraction.Word ambiguity and word abbreviation are important reasons for the
low recognition rate of named entities. In this paper, we propose a novel named
entity recognition model WCL-BBCD (Word Contrastive Learning with
BERT-BiLSTM-CRF-DBpedia) incorporating the idea of contrastive learning. The
model first trains the sentence pairs in the text, calculate similarity between
words in sentence pairs by cosine similarity, and fine-tunes the BERT model
used for the named entity recognition task through the similarity, so as to
alleviate word ambiguity. Then, the fine-tuned BERT model is combined with the
BiLSTM-CRF model to perform the named entity recognition task. Finally, the
recognition results are corrected in combination with prior knowledge such as
knowledge graphs, so as to alleviate the recognition caused by word
abbreviations low-rate problem. Experimental results show that our model
outperforms other similar model methods on the CoNLL-2003 English dataset and
OntoNotes V5 English dataset.
- Abstract(参考訳): 名前付きエンティティ認識タスクは、情報抽出のコアタスクのひとつであり、名前のあいまいさと単語省略は、名前付きエンティティの認識率の低い重要な理由である。
本稿では,コントラスト学習の概念を取り入れたエンティティ認識モデル WCL-BBCD (Word Contrastive Learning with BERT-BiLSTM-CRF-DBpedia) を提案する。
モデルはまず、テキスト中の文対を訓練し、コサイン類似性により文対内の単語間の類似性を計算し、その類似性を通じて名前付きエンティティ認識タスクに使用されるBERTモデルを微調整し、単語のあいまいさを軽減する。
そして、細調整されたBERTモデルとBiLSTM-CRFモデルを組み合わせて、名前付きエンティティ認識タスクを実行する。
最後に、知識グラフなどの事前知識と組み合わせて認識結果を補正し、単語短縮低レート問題による認識を緩和する。
実験の結果,本モデルは,conll-2003 english dataset と onnotes v5 english dataset の類似モデル手法よりも優れていた。
関連論文リスト
- Retrieval-Enhanced Named Entity Recognition [1.2187048691454239]
RENERは、In-Context Learningと情報検索技術に基づく自己回帰言語モデルを用いたエンティティ認識手法である。
実験の結果,CrossNERコレクションでは,提案手法を用いて最先端の性能を実現することができた。
論文 参考訳(メタデータ) (2024-10-17T01:12:48Z) - Incorporating Class-based Language Model for Named Entity Recognition in Factorized Neural Transducer [50.572974726351504]
クラスベースのLMをFNTに組み込んだ新しいE2EモデルであるC-FNTを提案する。
C-FNTでは、名前付きエンティティのLMスコアは、その表面形式の代わりに名前クラスに関連付けることができる。
実験の結果,提案したC-FNTは,単語認識の性能を損なうことなく,名前付きエンティティの誤りを著しく低減することがわかった。
論文 参考訳(メタデータ) (2023-09-14T12:14:49Z) - Disambiguation of Company names via Deep Recurrent Networks [101.90357454833845]
企業名文字列の埋め込みである教師付き学習を通じて,Siamese LSTM Network を抽出する手法を提案する。
私たちは、ラベル付けされるサンプルを優先するActive Learningアプローチが、より効率的な全体的な学習パイプラインをもたらす方法を分析します。
論文 参考訳(メタデータ) (2023-03-07T15:07:57Z) - Co-Driven Recognition of Semantic Consistency via the Fusion of
Transformer and HowNet Sememes Knowledge [6.184249194474601]
本稿では,Transformer と HowNet のセメム知識の融合に基づく協調型意味的一貫性認識手法を提案する。
BiLSTMは概念的意味情報をエンコードし、意味的一貫性を推測するために利用される。
論文 参考訳(メタデータ) (2023-02-21T09:53:19Z) - Neural Coreference Resolution based on Reinforcement Learning [53.73316523766183]
コアレゾリューションシステムは2つのサブタスクを解決する必要がある。
ひとつのタスクは、潜在的な言及のすべてを検出することであり、もう1つは、可能な言及ごとに前者のリンクを学習することである。
本稿では,アクターをベースとした強化学習型ニューラルコア参照分解システムを提案する。
論文 参考訳(メタデータ) (2022-12-18T07:36:35Z) - More Than Words: Collocation Tokenization for Latent Dirichlet
Allocation Models [71.42030830910227]
モデルが異なる環境でクラスタリングの品質を測定するための新しい指標を提案する。
マージトークンでトレーニングされたトピックは、マージされていないモデルよりも、より明確で、一貫性があり、トピックを区別する効果が高いトピックキーをもたらすことを示す。
論文 参考訳(メタデータ) (2021-08-24T14:08:19Z) - A More Efficient Chinese Named Entity Recognition base on BERT and
Syntactic Analysis [9.769870656657522]
本稿は,まずスタンフォードの自然言語処理(NLP)ツールを用いて,大規模タグ付きデータに注釈を付ける。次に,新しいNLPモデルであるg-BERTを用いて,変換器(BERT)モデルから双方向表現を圧縮し,計算量を削減する。
実験の結果,g-BERTモデルの計算量が60%削減され,テストF1では2%向上し,BERTモデルと比較して96.5向上した。
論文 参考訳(メタデータ) (2021-01-11T15:33:39Z) - R$^2$-Net: Relation of Relation Learning Network for Sentence Semantic
Matching [58.72111690643359]
文意味マッチングのための関係学習ネットワーク(R2-Net)を提案する。
最初にBERTを使用して、グローバルな視点から入力文をエンコードします。
次に、cnnベースのエンコーダは、ローカルな視点からキーワードやフレーズ情報をキャプチャするように設計されている。
関係情報抽出にラベルを十分に活用するために,関係分類タスクの自己教師付き関係性を導入する。
論文 参考訳(メタデータ) (2020-12-16T13:11:30Z) - Introducing Syntactic Structures into Target Opinion Word Extraction
with Deep Learning [89.64620296557177]
目的語抽出のためのディープラーニングモデルに文の構文構造を組み込むことを提案する。
また,ディープラーニングモデルの性能向上のために,新たな正規化手法を導入する。
提案モデルは,4つのベンチマークデータセット上での最先端性能を広範囲に解析し,達成する。
論文 参考訳(メタデータ) (2020-10-26T07:13:17Z) - Beheshti-NER: Persian Named Entity Recognition Using BERT [0.0]
本稿では、ペルシャ語で名前付きエンティティ認識のモデルを作成するために、事前訓練された深層双方向ネットワークBERTを使用する。
その結果,83.5 と 88.4 f1 の CONLL スコアをフレーズレベルと単語レベルで評価した。
論文 参考訳(メタデータ) (2020-03-19T15:55:21Z) - Hybrid Attention-Based Transformer Block Model for Distant Supervision
Relation Extraction [20.644215991166902]
DSREタスクを実行するために,マルチインスタンス学習を用いたハイブリッドアテンションベースのトランスフォーマーブロックを用いた新しいフレームワークを提案する。
提案手法は評価データセットの最先端アルゴリズムより優れている。
論文 参考訳(メタデータ) (2020-03-10T13:05:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。