論文の概要: FEWS: Large-Scale, Low-Shot Word Sense Disambiguation with the
Dictionary
- arxiv url: http://arxiv.org/abs/2102.07983v1
- Date: Tue, 16 Feb 2021 07:13:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 22:56:55.045013
- Title: FEWS: Large-Scale, Low-Shot Word Sense Disambiguation with the
Dictionary
- Title(参考訳): FEWS:辞書による大規模・低速単語センスの曖昧化
- Authors: Terra Blevins, Mandar Joshi, and Luke Zettlemoyer
- Abstract要約: Word Sense Disambiguation (WSD) の現在のモデルは、稀な感覚の曖昧化に苦慮している。
本稿では、wiktionaryの例文から自動的に抽出される新しい低ショットwsdデータセットである fews を紹介する。
- 参考スコア(独自算出の注目度): 43.32179344258548
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current models for Word Sense Disambiguation (WSD) struggle to disambiguate
rare senses, despite reaching human performance on global WSD metrics. This
stems from a lack of data for both modeling and evaluating rare senses in
existing WSD datasets. In this paper, we introduce FEWS (Few-shot Examples of
Word Senses), a new low-shot WSD dataset automatically extracted from example
sentences in Wiktionary. FEWS has high sense coverage across different natural
language domains and provides: (1) a large training set that covers many more
senses than previous datasets and (2) a comprehensive evaluation set containing
few- and zero-shot examples of a wide variety of senses. We establish baselines
on FEWS with knowledge-based and neural WSD approaches and present transfer
learning experiments demonstrating that models additionally trained with FEWS
better capture rare senses in existing WSD datasets. Finally, we find humans
outperform the best baseline models on FEWS, indicating that FEWS will support
significant future work on low-shot WSD.
- Abstract(参考訳): Word Sense Disambiguation(WSD)の現在のモデルは、グローバルなWSDメトリクスで人間のパフォーマンスに到達するにもかかわらず、希少な感覚の曖昧化に苦慮している。
これは、既存のwsdデータセットのレアセンスのモデリングと評価の両方のためのデータの欠如に起因する。
本稿では,wiktionary の例文から自動的に抽出される新しい低ショット wsd データセットである fews (few-shot example of word senses) を紹介する。
さまざまな自然言語ドメインにまたがる高感覚のカバレッジを持ち、(1)以前のデータセットよりも多くの感覚をカバーする大きなトレーニングセット、(2)様々な感覚の少数とゼロショットの例を含む総合的な評価セットを提供する。
我々は、知識ベースおよびニューラルWSDアプローチによるFEWSのベースラインを確立するとともに、FEWSでトレーニングされたモデルが既存のWSDデータセットで稀な感覚をよりよく捉えることを実証するトランスファー学習実験を行う。
最後に、人間がFEWS上で最高のベースラインモデルより優れていることを発見し、FEWSが低ショットWSDにおける重要な将来的な作業をサポートすることを示します。
関連論文リスト
- Beyond Coarse-Grained Matching in Video-Text Retrieval [50.799697216533914]
きめ細かい評価のための新しいアプローチを導入する。
テストキャプションを自動的に生成することで,既存のデータセットにアプローチを適用することができる。
きめ細かい評価実験は、このアプローチがきめ細かな違いを理解するモデルの能力を高めることを実証している。
論文 参考訳(メタデータ) (2024-10-16T09:42:29Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - Retrieval-based Disentangled Representation Learning with Natural
Language Supervision [61.75109410513864]
本稿では,VDR(Vocabulary Disentangled Retrieval)を提案する。
提案手法では,両エンコーダモデルを用いて語彙空間におけるデータと自然言語の両方を表現する。
論文 参考訳(メタデータ) (2022-12-15T10:20:42Z) - Meta-Learning with Variational Semantic Memory for Word Sense
Disambiguation [56.830395467247016]
メタ学習環境におけるWSDのセマンティックメモリモデルを提案する。
我々のモデルは階層的変動推論に基づいており、ハイパーネットワークを介して適応的なメモリ更新ルールを組み込んでいる。
極めて少ないシナリオでの効果的な学習を支援するために,本モデルがWSDで最先端の技術を数ショットで実現していることを示す。
論文 参考訳(メタデータ) (2021-06-05T20:40:01Z) - LMMS Reloaded: Transformer-based Sense Embeddings for Disambiguation and
Beyond [2.9005223064604078]
近年のトランスフォーマーに基づく言語モデルでは, 感覚特有の情報を確実に伝達する文脈表現が可能であることが証明されている。
14のNLM変種に関する探索解析により,NLMのすべての層からの情報を活用するための,より原理的なアプローチを導入する。
また、タスク固有のモデルとは対照的に、これらの感覚埋め込みの汎用性を強調し、WSD以外のいくつかの感覚関連タスクに適用する。
論文 参考訳(メタデータ) (2021-05-26T10:14:22Z) - SensPick: Sense Picking for Word Sense Disambiguation [1.1429576742016154]
我々は,対象単語の文脈情報と関連する光沢情報の両方を用いて,単語とグルースの集合間の意味的関係をモデル化する。
We propose SensPick, a type of stacked bidirectional Long Short Term Memory (LSTM) network to perform the WSD task。
論文 参考訳(メタデータ) (2021-02-10T04:52:42Z) - mask-Net: Learning Context Aware Invariant Features using Adversarial
Forgetting (Student Abstract) [46.61843360106884]
本稿では,対向的無視(AF)を用いた不変性を誘導する新しい手法を提案する。
STTタスクのアクセントのような不変性を学習するための最初の実験は、従来のモデルと比較して単語誤り率(WER)の点でより優れた一般化を実現している。
論文 参考訳(メタデータ) (2020-11-25T19:02:13Z) - Analysis and Evaluation of Language Models for Word Sense Disambiguation [18.001457030065712]
トランスフォーマーベースの言語モデルは、嵐によってNLPの多くの分野を取り込んでいる。
BERTは、ワードセンス毎に限られた数のサンプルが利用できる場合でも、高いレベルの感覚の区別を正確に捉えることができる。
BERTとその派生種は既存の評価ベンチマークの大部分を支配している。
論文 参考訳(メタデータ) (2020-08-26T15:07:07Z) - Stance Detection Benchmark: How Robust Is Your Stance Detection? [65.91772010586605]
Stance Detection (StD) は、あるトピックやクレームに対する著者の姿勢を検出することを目的としている。
マルチデータセット学習環境において、さまざまなドメインの10のStDデータセットから学習するStDベンチマークを導入する。
このベンチマーク設定では、5つのデータセットに新しい最先端結果を表示することができます。
論文 参考訳(メタデータ) (2020-01-06T13:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。