論文の概要: SLK-NER: Exploiting Second-order Lexicon Knowledge for Chinese NER
- arxiv url: http://arxiv.org/abs/2007.08416v1
- Date: Thu, 16 Jul 2020 15:53:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 23:07:20.308390
- Title: SLK-NER: Exploiting Second-order Lexicon Knowledge for Chinese NER
- Title(参考訳): SLK-NER:中国NERの2次辞書知識の展開
- Authors: Dou Hu and Lingwei Wei
- Abstract要約: 文中の各文字の2次語彙知識(SLK)に関する新たな知見を提示し,より語彙的な単語情報を提供する。
提案モデルは,グローバルコンテキストの助けを借りて,より識別可能な語彙情報を利用することができる。
- 参考スコア(独自算出の注目度): 8.122270502556374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although character-based models using lexicon have achieved promising results
for Chinese named entity recognition (NER) task, some lexical words would
introduce erroneous information due to wrongly matched words. Existing
researches proposed many strategies to integrate lexicon knowledge. However,
they performed with simple first-order lexicon knowledge, which provided
insufficient word information and still faced the challenge of matched word
boundary conflicts; or explored the lexicon knowledge with graph where
higher-order information introducing negative words may disturb the
identification. To alleviate the above limitations, we present new insight into
second-order lexicon knowledge (SLK) of each character in the sentence to
provide more lexical word information including semantic and word boundary
features. Based on these, we propose a SLK-based model with a novel strategy to
integrate the above lexicon knowledge. The proposed model can exploit more
discernible lexical words information with the help of global context.
Experimental results on three public datasets demonstrate the validity of SLK.
The proposed model achieves more excellent performance than the
state-of-the-art comparison methods.
- Abstract(参考訳): 辞書を用いた文字ベースモデルでは,中国語のエンティティ認識(NER)タスクにおいて有望な結果が得られたが,一部の語彙的単語は誤マッチした単語による誤情報をもたらす。
既存の研究は、語彙知識を統合するための多くの戦略を提案した。
しかし、単純な一階述語知識により、単語情報が不足し、一致した単語境界紛争の課題に直面している、あるいは、負の単語を導入した高階述語情報が識別を妨害する可能性のあるグラフを用いて辞書知識を探索した。
上記の制限を緩和するため,文中の各文字の2次語彙知識(SLK)に関する新たな知見を提示し,意味的および単語境界特徴を含むより語彙的な単語情報を提供する。
そこで我々は,上記の語彙知識を統合するための新しい戦略を持つSLKモデルを提案する。
提案モデルは,グローバルコンテキストの助けを借りて,より識別可能な語彙情報を利用することができる。
3つの公開データセットにおける実験結果はslkの有効性を示している。
提案手法は最先端の比較手法よりも優れた性能を実現する。
関連論文リスト
- Talking the Talk Does Not Entail Walking the Walk: On the Limits of Large Language Models in Lexical Entailment Recognition [3.8623569699070357]
本研究では,8つの大言語モデルが動詞間の語彙的含意関係を認識する能力について検討する。
以上の結果から,モデルが適度に良好な性能で語彙的包含認識タスクに対処できることが判明した。
論文 参考訳(メタデータ) (2024-06-21T06:30:16Z) - Incorporating Lexical and Syntactic Knowledge for Unsupervised Cross-Lingual Transfer [4.944761231728674]
我々は"Lexicon-Syntax Enhanced Multilingual BERT"と呼ばれる新しいフレームワークを提案する。
我々は、ベースモデルとしてMultilingual BERTを使用し、学習能力を高めるために2つの手法を用いています。
実験の結果、このフレームワークはゼロショット・クロスランガル転送のすべてのベースラインを一貫して上回ることを示した。
論文 参考訳(メタデータ) (2024-04-25T14:10:52Z) - Translate to Disambiguate: Zero-shot Multilingual Word Sense
Disambiguation with Pretrained Language Models [67.19567060894563]
事前訓練された言語モデル(PLM)は、豊富な言語間知識を学習し、多様なタスクでうまく機能するように微調整することができる。
C-WLT(Contextual Word-Level Translation)を用いた言語間単語感覚の捉え方の検討を行った。
モデルのサイズが大きくなるにつれて、PLMはより言語間単語認識の知識をエンコードし、WLT性能を改善するためのコンテキストを良くする。
論文 参考訳(メタデータ) (2023-04-26T19:55:52Z) - The Short Text Matching Model Enhanced with Knowledge via Contrastive
Learning [8.350445155753167]
本稿では,コントラスト学習と外部知識を組み合わせた短いテキストマッチングモデルを提案する。
ノイズを避けるため、原文の主文としてキーワードを用いて、知識ベースで対応する知識語を検索する。
設計モデルは,2つの公開可能な中国語テキストマッチングデータセット上で,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-04-08T03:24:05Z) - Learning from the Dictionary: Heterogeneous Knowledge Guided Fine-tuning
for Chinese Spell Checking [32.16787396943434]
中国語のスペルチェック(CSC)は、中国語のスペルエラーを検出し修正することを目的としている。
最近の研究は、言語モデルの事前訓練された知識から始まり、CSCモデルにマルチモーダル情報を取り入れて性能を向上させる。
本稿では,音声学・視覚学・意味学の観点から,CSCモデルを用いて辞書から異種知識を学習するLEADフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-19T06:31:34Z) - Always Keep your Target in Mind: Studying Semantics and Improving
Performance of Neural Lexical Substitution [124.99894592871385]
本稿では,従来の言語モデルと最近の言語モデルの両方を用いた語彙置換手法の大規模比較研究を行う。
目的語に関する情報を適切に注入すれば,SOTA LMs/MLMsによるすでに競合する結果がさらに大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-06-07T16:16:19Z) - Exposing Cross-Lingual Lexical Knowledge from Multilingual Sentence
Encoders [85.80950708769923]
本稿では,多言語言語モデルを用いて,それらのパラメータに格納された言語間語彙の知識量を探索し,元の多言語LMと比較する。
また、この知識を付加的に微調整した多言語モデルにより公開する新しい手法も考案した。
標準ベンチマークの大幅な向上を報告します。
論文 参考訳(メタデータ) (2022-04-30T13:23:16Z) - DyLex: Incorporating Dynamic Lexicons into BERT for Sequence Labeling [49.3379730319246]
BERTに基づくシーケンスラベリングタスクのためのプラグインレキシコンの組込み手法であるDyLexを提案する。
語彙を更新しながら表現を再学習しないように,単語に依存しないタグ埋め込みを採用する。
最後に,提案フレームワークのプラグイン性を保証するために,協調的注意に基づく知識融合機構を導入する。
論文 参考訳(メタデータ) (2021-09-18T03:15:49Z) - LexSubCon: Integrating Knowledge from Lexical Resources into Contextual
Embeddings for Lexical Substitution [76.615287796753]
本稿では,コンテキスト埋め込みモデルに基づくエンドツーエンドの語彙置換フレームワークであるLexSubConを紹介する。
これは文脈情報と構造化語彙資源からの知識を組み合わせることで達成される。
我々の実験によると、LexSubConはLS07とCoInCoベンチマークデータセットで従来の最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-11T21:25:56Z) - Enhanced word embeddings using multi-semantic representation through
lexical chains [1.8199326045904998]
フレキシブル・レキシカル・チェーンIIと固定レキシカル・チェーンIIという2つの新しいアルゴリズムを提案する。
これらのアルゴリズムは、語彙連鎖から派生した意味関係、語彙データベースからの以前の知識、および単一のシステムを形成するビルディングブロックとしての単語埋め込みにおける分布仮説の堅牢性を組み合わせている。
その結果、語彙チェーンと単語埋め込み表現の統合は、より複雑なシステムに対しても、最先端の結果を維持します。
論文 参考訳(メタデータ) (2021-01-22T09:43:33Z) - Probing Pretrained Language Models for Lexical Semantics [76.73599166020307]
類型的多様言語と5つの異なる語彙課題にまたがる系統的経験分析を行った。
我々の結果は、普遍的に維持されるパターンとベストプラクティスを示しているが、言語やタスクにまたがる顕著なバリエーションを示している。
論文 参考訳(メタデータ) (2020-10-12T14:24:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。