論文の概要: Lexical Sememe Prediction using Dictionary Definitions by Capturing
Local Semantic Correspondence
- arxiv url: http://arxiv.org/abs/2001.05954v1
- Date: Thu, 16 Jan 2020 17:30:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 00:11:48.592968
- Title: Lexical Sememe Prediction using Dictionary Definitions by Capturing
Local Semantic Correspondence
- Title(参考訳): 局所的意味対応による辞書定義を用いた語彙セメム予測
- Authors: Jiaju Du, Fanchao Qi, Maosong Sun, Zhiyuan Liu
- Abstract要約: セメムは人間の言語の最小の意味単位として定義されており、多くのNLPタスクで有用であることが証明されている。
本稿では,このようなマッチングを捕捉し,セメムを予測できるセメム対応プールモデルを提案する。
我々は,有名なSememe KB HowNetのモデルとベースライン手法を評価し,そのモデルが最先端のパフォーマンスを実現することを発見した。
- 参考スコア(独自算出の注目度): 94.79912471702782
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sememes, defined as the minimum semantic units of human languages in
linguistics, have been proven useful in many NLP tasks. Since manual
construction and update of sememe knowledge bases (KBs) are costly, the task of
automatic sememe prediction has been proposed to assist sememe annotation. In
this paper, we explore the approach of applying dictionary definitions to
predicting sememes for unannotated words. We find that sememes of each word are
usually semantically matched to different words in its dictionary definition,
and we name this matching relationship local semantic correspondence.
Accordingly, we propose a Sememe Correspondence Pooling (SCorP) model, which is
able to capture this kind of matching to predict sememes. We evaluate our model
and baseline methods on a famous sememe KB HowNet and find that our model
achieves state-of-the-art performance. Moreover, further quantitative analysis
shows that our model can properly learn the local semantic correspondence
between sememes and words in dictionary definitions, which explains the
effectiveness of our model. The source codes of this paper can be obtained from
https://github.com/thunlp/scorp.
- Abstract(参考訳): セメムは言語学における人間の言語の最小の意味単位として定義されており、多くのNLPタスクにおいて有用であることが証明されている。
セメム知識ベース(KB)のマニュアル構築と更新はコストがかかるため,セメムアノテーションを支援するために,セメムの自動予測タスクが提案されている。
本稿では,無意味な単語に対するセメムの予測に辞書定義を適用するアプローチについて検討する。
各単語のセメムは通常、辞書定義において異なる単語にセマンティックに一致することが分かり、このマッチング関係の局所意味対応を命名する。
そこで我々は,このようなマッチングを捕捉し,セメムを予測できるセメム対応ポーリング(SCorP)モデルを提案する。
我々は,有名なSememe KB HowNetのモデルとベースライン手法を評価し,そのモデルが最先端のパフォーマンスを実現することを発見した。
さらに,さらに定量的分析により,セメムと単語間の局所的意味対応を辞書定義で適切に学習できることが示され,本モデルの有効性が説明できる。
本論文のソースコードはhttps://github.com/thunlp/scorpから取得できる。
関連論文リスト
- Contextual Dictionary Lookup for Knowledge Graph Completion [32.493168863565465]
知識グラフ補完(KGC)は、知識グラフの不完全性(KGs)を解決することを目的として、既知の三重項から欠落するリンクを予測する。
既存の埋め込みモデルは、それぞれの関係を一意なベクトルにマッピングし、異なる実体の下でそれらの特定の粒度のセマンティクスを見渡す。
本稿では,従来の埋め込みモデルを用いて,関係の微粒なセマンティクスをエンド・ツー・エンドで学習することのできる,文脈辞書検索を利用した新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-13T12:13:41Z) - Unsupervised Semantic Variation Prediction using the Distribution of
Sibling Embeddings [17.803726860514193]
単語の意味的変化の検出は,様々なNLPアプリケーションにおいて重要な課題である。
意味表現だけではそのような意味的バリエーションを正確に捉えることはできないと我々は主張する。
対象単語の文脈的埋め込みのコホート全体を利用する手法を提案する。
論文 参考訳(メタデータ) (2023-05-15T13:58:21Z) - Chinese Word Sense Embedding with SememeWSD and Synonym Set [17.37973450772783]
本稿では,多文単語のすべての感覚に異なるベクトルを割り当てるために,SememeWSD Synonym(SWSDS)モデルを提案する。
OpenHowNetから単語センスの上位10の同義語を取得し、単語センスのベクトルとして同義語の平均ベクトルを算出する。
実験では,Gensimのwmdistance法を用いて意味的類似性計算におけるSWSDSモデルの評価を行った。
論文 参考訳(メタデータ) (2022-06-29T03:42:03Z) - A Unified Model for Reverse Dictionary and Definition Modelling [7.353994554197792]
我々は、定義(逆辞書)から単語を推測し、与えられた単語(定義モデリング)を生成するために、二方向ニューラル辞書を訓練する。
本手法は,2つのタスクを同時に学習し,埋め込みによる未知語処理を行う。
単語や定義を共有層を通じて同じ表現空間にキャストし、そこから他の形式をマルチタスク形式で生成する。
論文 参考訳(メタデータ) (2022-05-09T23:52:39Z) - Few-Shot Semantic Parsing with Language Models Trained On Code [52.23355024995237]
Codexは同等のGPT-3モデルよりもセマンティックパーシングが優れていることがわかった。
GPT-3とは異なり、Codexは意味表現を直接ターゲットとする場合、おそらく意味解析で使われる意味表現がコードと似た構造になっているように、同じように機能する。
論文 参考訳(メタデータ) (2021-12-16T08:34:06Z) - Dict-BERT: Enhancing Language Model Pre-training with Dictionary [42.0998323292348]
事前学習型言語モデル(PLM)は,大規模コーパス上で自己指導型学習タスクを行うことで,普遍的な言語表現を学習することを目的としている。
本研究では,辞書におけるレアワードの定義を活用することで,言語モデル事前学習の強化に焦点をあてる。
入力テキストシーケンスとまれな単語定義間の単語と文レベルのアライメントに関する2つの新しい自己教師付き事前学習タスクを提案する。
論文 参考訳(メタデータ) (2021-10-13T04:29:14Z) - Fake it Till You Make it: Self-Supervised Semantic Shifts for
Monolingual Word Embedding Tasks [58.87961226278285]
語彙意味変化をモデル化するための自己教師付きアプローチを提案する。
本手法は,任意のアライメント法を用いて意味変化の検出に利用できることを示す。
3つの異なるデータセットに対する実験結果を用いて,本手法の有用性について述べる。
論文 参考訳(メタデータ) (2021-01-30T18:59:43Z) - SChME at SemEval-2020 Task 1: A Model Ensemble for Detecting Lexical
Semantic Change [58.87961226278285]
本稿では,SemEval-2020 Task 1における語彙意味変化の教師なし検出法であるSChMEについて述べる。
SChMEは、分布モデル(単語埋め込み)とワード周波数モデルの信号を組み合わせたモデルアンサンブルを使用し、各モデルは、その特徴に応じて単語が苦しむ確率を示す投票を行う。
論文 参考訳(メタデータ) (2020-12-02T23:56:34Z) - NLP-CIC @ DIACR-Ita: POS and Neighbor Based Distributional Models for
Lexical Semantic Change in Diachronic Italian Corpora [62.997667081978825]
本稿では,イタリア語に対する教師なし語彙意味変化のシステムと知見について述べる。
その課題は、対象の単語が時間とともにその意味を進化させたかどうかを判断することであり、それは2つの時間固有のデータセットからの原文のみに依存する。
本研究では,各期間に対象単語を表す2つのモデルを提案し,しきい値と投票方式を用いて変化単語を予測する。
論文 参考訳(メタデータ) (2020-11-07T11:27:18Z) - Grounded Compositional Outputs for Adaptive Language Modeling [59.02706635250856]
言語モデルの語彙$-$典型的にはトレーニング前に選択され、後で永久に固定される$-$は、そのサイズに影響します。
言語モデルのための完全合成出力埋め込み層を提案する。
我々の知る限り、この結果はトレーニング語彙に依存しないサイズを持つ最初の単語レベル言語モデルである。
論文 参考訳(メタデータ) (2020-09-24T07:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。