論文の概要: Connect-the-Dots: Bridging Semantics between Words and Definitions via
Aligning Word Sense Inventories
- arxiv url: http://arxiv.org/abs/2110.14091v1
- Date: Wed, 27 Oct 2021 00:04:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 12:53:56.765610
- Title: Connect-the-Dots: Bridging Semantics between Words and Definitions via
Aligning Word Sense Inventories
- Title(参考訳): Connect-the-Dots: 単語と定義間のセマンティクスのブリッジ
- Authors: Wenlin Yao, Xiaoman Pan, Lifeng Jin, Jianshu Chen, Dian Yu, Dong Yu
- Abstract要約: Word Sense Disambiguationは、そのコンテキストに応じて、ある単語の正確な意味を自動的に識別することを目的としている。
既存の教師付きモデルは、限られた訓練データのために稀な単語感覚の正確な予測に苦慮している。
我々は,定義文を異なる意味の在庫から同じ意味に整合させ,豊富な語彙知識を収集する光沢アライメントアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 47.03271152494389
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Word Sense Disambiguation (WSD) aims to automatically identify the exact
meaning of one word according to its context. Existing supervised models
struggle to make correct predictions on rare word senses due to limited
training data and can only select the best definition sentence from one
predefined word sense inventory (e.g., WordNet). To address the data sparsity
problem and generalize the model to be independent of one predefined inventory,
we propose a gloss alignment algorithm that can align definition sentences
(glosses) with the same meaning from different sense inventories to collect
rich lexical knowledge. We then train a model to identify semantic equivalence
between a target word in context and one of its glosses using these aligned
inventories, which exhibits strong transfer capability to many WSD tasks.
Experiments on benchmark datasets show that the proposed method improves
predictions on both frequent and rare word senses, outperforming prior work by
1.2% on the All-Words WSD Task and 4.3% on the Low-Shot WSD Task. Evaluation on
WiC Task also indicates that our method can better capture word meanings in
context.
- Abstract(参考訳): Word Sense Disambiguation (WSD) は、1つの単語の意味を文脈に応じて自動的に識別することを目的としている。
既存の教師付きモデルは、限られたトレーニングデータによってレアワードセンスの正確な予測に苦労し、事前定義されたワードセンスインベントリ(例えばwordnet)から最適な定義文のみを選択できる。
データ空間の問題に対処し、1つの事前定義された在庫から独立してモデルを一般化するために、定義文(グロス)を異なる感覚の在庫から同じ意味に整合させてリッチな語彙知識を収集できるグロスアライメントアルゴリズムを提案する。
次に、多くのwsdタスクに強い転送能力を示すこれらのアライメントによって、コンテキスト内の対象単語とその用語の1つの間の意味的等価性を識別するためにモデルを訓練します。
ベンチマークデータセットを用いた実験により,提案手法は単語の頻繁度と希少度の両方の予測を改善し,全単語WSDタスクでは1.2%,低ショットWSDタスクでは4.3%,先行処理では1.2%を上回った。
また,WiCタスクの評価により,文脈における単語の意味をよりよく把握できることを示す。
関連論文リスト
- HKUST at SemEval-2023 Task 1: Visual Word Sense Disambiguation with
Context Augmentation and Visual Assistance [5.5532783549057845]
本稿では,事前学習したビジョンランゲージモデルを最大限活用するマルチモーダル検索フレームワークを提案する。
当社のシステムは,SemEval-2023 Task 1では最も競争力のある成果を上げていませんが,チームの半分近くを破ることが可能です。
論文 参考訳(メタデータ) (2023-11-30T06:23:15Z) - Can Word Sense Distribution Detect Semantic Changes of Words? [35.17635565325166]
単語感覚分布は、英語、ドイツ語、スウェーデン語、ラテン語の単語の意味変化を正確に予測するために使用できることを示す。
SemEval 2020 Task 1のデータセットを用いた実験結果から,単語の意味的変化を正確に予測できることがわかった。
論文 参考訳(メタデータ) (2023-10-16T13:41:27Z) - Unsupervised Semantic Variation Prediction using the Distribution of
Sibling Embeddings [17.803726860514193]
単語の意味的変化の検出は,様々なNLPアプリケーションにおいて重要な課題である。
意味表現だけではそのような意味的バリエーションを正確に捉えることはできないと我々は主張する。
対象単語の文脈的埋め込みのコホート全体を利用する手法を提案する。
論文 参考訳(メタデータ) (2023-05-15T13:58:21Z) - Efficient Zero-shot Event Extraction with Context-Definition Alignment [50.15061819297237]
イベント抽出(EE)は、テキストから関心のあるイベント参照を特定するタスクである。
イベントタイプ名の静的な埋め込みは、1つの単語があいまいなため、十分ではないかもしれない、と私たちは主張する。
我々はZED(Zero-shot Event extract with Definition)と名付けた。
論文 参考訳(メタデータ) (2022-11-09T19:06:22Z) - DetCLIP: Dictionary-Enriched Visual-Concept Paralleled Pre-training for
Open-world Detection [118.36746273425354]
本稿では,デザインされた概念辞書から知識の豊かさを生かして,オープンワールド検出のための並列視覚概念事前学習手法を提案する。
概念をそれらの記述で豊かにすることにより、オープンドメイン学習を促進するために、さまざまな概念間の関係を明確に構築する。
提案フレームワークは、例えばLVISデータセット上で、強力なゼロショット検出性能を示し、私たちのDetCLIP-TはGLIP-Tを9.9%向上させ、レアカテゴリで13.5%改善した。
論文 参考訳(メタデータ) (2022-09-20T02:01:01Z) - Meta-Learning with Variational Semantic Memory for Word Sense
Disambiguation [56.830395467247016]
メタ学習環境におけるWSDのセマンティックメモリモデルを提案する。
我々のモデルは階層的変動推論に基づいており、ハイパーネットワークを介して適応的なメモリ更新ルールを組み込んでいる。
極めて少ないシナリオでの効果的な学習を支援するために,本モデルがWSDで最先端の技術を数ショットで実現していることを示す。
論文 参考訳(メタデータ) (2021-06-05T20:40:01Z) - SensPick: Sense Picking for Word Sense Disambiguation [1.1429576742016154]
我々は,対象単語の文脈情報と関連する光沢情報の両方を用いて,単語とグルースの集合間の意味的関係をモデル化する。
We propose SensPick, a type of stacked bidirectional Long Short Term Memory (LSTM) network to perform the WSD task。
論文 参考訳(メタデータ) (2021-02-10T04:52:42Z) - Adapting BERT for Word Sense Disambiguation with Gloss Selection
Objective and Example Sentences [18.54615448101203]
BERTのような事前訓練された言語モデルを用いたドメイン適応や伝達学習は、多くの自然言語処理タスクにおいて効果的なアプローチであることが証明されている。
関連性ランキングタスクとして単語感覚の曖昧さを定式化し、シーケンスペアランキングタスクで細いBERTを用いて、最も確率の高い感覚定義を選択することを提案する。
論文 参考訳(メタデータ) (2020-09-24T16:37:04Z) - Moving Down the Long Tail of Word Sense Disambiguation with
Gloss-Informed Biencoders [79.38278330678965]
Word Sense Disambiguation (WSD)の主な障害は、単語感覚が均一に分散されないことである。
本稿では,(1)対象語とその周囲の文脈を独立に埋め込んだバイエンコーダモデルを提案する。
論文 参考訳(メタデータ) (2020-05-06T04:21:45Z) - Words aren't enough, their order matters: On the Robustness of Grounding
Visual Referring Expressions [87.33156149634392]
視覚的参照表現認識のための標準ベンチマークであるRefCOgを批判的に検討する。
83.7%のケースでは言語構造に関する推論は不要である。
比較学習とマルチタスク学習の2つの手法を提案し,ViLBERTのロバスト性を高める。
論文 参考訳(メタデータ) (2020-05-04T17:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。