論文の概要: Moving Down the Long Tail of Word Sense Disambiguation with
Gloss-Informed Biencoders
- arxiv url: http://arxiv.org/abs/2005.02590v2
- Date: Tue, 2 Jun 2020 04:01:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 05:22:45.542911
- Title: Moving Down the Long Tail of Word Sense Disambiguation with
Gloss-Informed Biencoders
- Title(参考訳): 光沢のないバイエンコーダによる単語感覚の曖昧さの解消
- Authors: Terra Blevins and Luke Zettlemoyer
- Abstract要約: Word Sense Disambiguation (WSD)の主な障害は、単語感覚が均一に分散されないことである。
本稿では,(1)対象語とその周囲の文脈を独立に埋め込んだバイエンコーダモデルを提案する。
- 参考スコア(独自算出の注目度): 79.38278330678965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A major obstacle in Word Sense Disambiguation (WSD) is that word senses are
not uniformly distributed, causing existing models to generally perform poorly
on senses that are either rare or unseen during training. We propose a
bi-encoder model that independently embeds (1) the target word with its
surrounding context and (2) the dictionary definition, or gloss, of each sense.
The encoders are jointly optimized in the same representation space, so that
sense disambiguation can be performed by finding the nearest sense embedding
for each target word embedding. Our system outperforms previous
state-of-the-art models on English all-words WSD; these gains predominantly
come from improved performance on rare senses, leading to a 31.1% error
reduction on less frequent senses over prior work. This demonstrates that rare
senses can be more effectively disambiguated by modeling their definitions.
- Abstract(参考訳): Word Sense Disambiguation (WSD) の大きな障害は、単語感覚が均一に分散されていないことである。
本稿では,(1)目的語とその周辺文脈を独立に埋め込むバイエンコーダモデルと,(2)各感覚の辞書定義,または用語集を提案する。
エンコーダは同じ表現空間で共同最適化されるので、各対象語埋め込みに最も近い感覚埋め込みを見つけることで、感覚の曖昧さを実現できる。
これまでの英語全語wsdモデルよりも優れており、これはレアセンスのパフォーマンス向上が主な要因であり、前回の作業よりも頻繁でない感覚で31.1%の誤差を減少させる結果となっている。
これは、希少な感覚は定義をモデル化することによってより効果的に曖昧化できることを示している。
関連論文リスト
- Word sense extension [8.939269057094661]
本稿では,新しい文脈に向けて,単語が新たな感覚を創出することを可能にする,単語知覚拡張(WSE)のパラダイムを提案する。
本研究では,多文語型を異なる感覚を示す2つの擬似トークンに分割することで,単語拡張をシミュレートするフレームワークを開発する。
本フレームワークは,様々な種類の単語知覚拡張をサポートするために,言語モデル埋め込み空間を変換する学習手法と,連鎖の認知モデルを組み合わせる。
論文 参考訳(メタデータ) (2023-06-09T00:54:21Z) - We're Afraid Language Models Aren't Modeling Ambiguity [136.8068419824318]
あいまいさの管理は人間の言語理解の重要な部分です。
文中のあいまいさは,他の文との係り受け関係に与える影響によって特徴付けられる。
我々は,多ラベルNLIモデルが曖昧さによって誤解を招く野生の政治的主張にフラグを付けることができることを示す。
論文 参考訳(メタデータ) (2023-04-27T17:57:58Z) - What do Language Models know about word senses? Zero-Shot WSD with
Language Models and Domain Inventories [23.623074512572593]
我々は,言語モデルが推論時間における感覚間の識別能力の程度を調査することを目的としている。
我々は、単語感覚とドメインの関係を利用して、単語センスの曖昧さ(WSD)をテキスト・エンターテイメント問題として位置づける。
以上の結果から,本手法は実効性があり,教師付きシステムに近いことが示唆された。
論文 参考訳(メタデータ) (2023-02-07T09:55:07Z) - A Quadratic 0-1 Programming Approach for Word Sense Disambiguation [0.0]
単語センスの曖昧さ(英: Word Sense Disambiguation, WSD)とは、ある文脈における曖昧な単語の感覚を決定するタスクである。
私たちは、正しいパターンを見つける上で大きな困難の1つとして、以下の原因を論じます。
本稿では,WSD問題を最大化する擬似プログラミングモデル (QIP) を用いて,異なる対象単語の感覚間の相互作用にアプローチする。
論文 参考訳(メタデータ) (2022-01-13T10:46:06Z) - Connect-the-Dots: Bridging Semantics between Words and Definitions via
Aligning Word Sense Inventories [47.03271152494389]
Word Sense Disambiguationは、そのコンテキストに応じて、ある単語の正確な意味を自動的に識別することを目的としている。
既存の教師付きモデルは、限られた訓練データのために稀な単語感覚の正確な予測に苦慮している。
我々は,定義文を異なる意味の在庫から同じ意味に整合させ,豊富な語彙知識を収集する光沢アライメントアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-27T00:04:33Z) - Large Scale Substitution-based Word Sense Induction [48.49573297876054]
本稿では,事前学習されたマスキング言語モデル(MLM)に基づく単語センス誘導手法を提案する。
その結果、コーパス由来の感覚インベントリに基づいて感覚タグ付けされ、各感覚が指示語に関連付けられているコーパスとなる。
本手法を用いた英語ウィキペディアの評価では,Babelfy などの WSD 手法と比較しても,誘導された感覚とインスタンスごとの感覚代入の両方が高品質であることがわかった。
論文 参考訳(メタデータ) (2021-10-14T19:40:37Z) - Meta-Learning with Variational Semantic Memory for Word Sense
Disambiguation [56.830395467247016]
メタ学習環境におけるWSDのセマンティックメモリモデルを提案する。
我々のモデルは階層的変動推論に基づいており、ハイパーネットワークを介して適応的なメモリ更新ルールを組み込んでいる。
極めて少ないシナリオでの効果的な学習を支援するために,本モデルがWSDで最先端の技術を数ショットで実現していることを示す。
論文 参考訳(メタデータ) (2021-06-05T20:40:01Z) - SensPick: Sense Picking for Word Sense Disambiguation [1.1429576742016154]
我々は,対象単語の文脈情報と関連する光沢情報の両方を用いて,単語とグルースの集合間の意味的関係をモデル化する。
We propose SensPick, a type of stacked bidirectional Long Short Term Memory (LSTM) network to perform the WSD task。
論文 参考訳(メタデータ) (2021-02-10T04:52:42Z) - Word Sense Disambiguation for 158 Languages using Word Embeddings Only [80.79437083582643]
文脈における単語感覚の曖昧さは人間にとって容易であるが、自動的アプローチでは大きな課題である。
本稿では,学習前の標準単語埋め込みモデルを入力として,完全に学習した単語認識のインベントリを誘導する手法を提案する。
この手法を用いて、158の言語に対して、事前訓練されたfastText単語の埋め込みに基づいて、センスインベントリのコレクションを誘導する。
論文 参考訳(メタデータ) (2020-03-14T14:50:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。