論文の概要: Building on Huang et al. GlossBERT for Word Sense Disambiguation
- arxiv url: http://arxiv.org/abs/2112.07089v1
- Date: Tue, 14 Dec 2021 01:14:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 05:11:30.663531
- Title: Building on Huang et al. GlossBERT for Word Sense Disambiguation
- Title(参考訳): Huangなど上に建つ。
単語センスの曖昧化のためのGlosssBERT
- Authors: Nikhil Patel, James Hale, Kanika Jindal, Apoorva Sharma, and Yichun Yu
- Abstract要約: 我々は、Word Sense Disambiguation (WSD) の問題に取り組むことを提案する。
言語では、同じ形の単語は文脈によって異なる意味を持つことがある。
我々は,Huang et al.GlossBERTの結果を再現し,拡張するつもりです。
- 参考スコア(独自算出の注目度): 1.9279780052245203
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose to take on the problem ofWord Sense Disambiguation (WSD). In
language, words of the same form can take different meanings depending on
context. While humans easily infer the meaning or gloss of such words by their
context, machines stumble on this task.As such, we intend to replicated and
expand upon the results of Huang et al.GlossBERT, a model which they design to
disambiguate these words (Huang et al.,2019). Specifically, we propose the
following augmentations: data-set tweaking(alpha hyper-parameter), ensemble
methods, and replacement of BERT with BART andALBERT. The following GitHub
repository contains all code used in this report, which extends on the code
made available by Huang et al.
- Abstract(参考訳): 本稿では,Word Sense Disambiguation (WSD) の問題に取り組むことを提案する。
言語では、同じ形態の単語は文脈によって異なる意味を取ることができる。
人間はこれらの単語の意味や光沢を文脈によって容易に推測するが、機械はこのタスクにこだわるため、これらの単語を曖昧にするために設計したモデルであるHuang et al.GlossBERTの結果を再現して拡張する(Huang et al.,2019)。
具体的には、データセットの微調整(アルファハイパーパラメータ)、アンサンブル法、BARTおよびALBERTによるBERTの置き換えを提案する。
以下のgithubリポジトリには、huang氏らが利用可能なコードを拡張する、このレポートで使用されているすべてのコードが含まれている。
関連論文リスト
- Gloss-Free End-to-End Sign Language Translation [59.28829048788345]
我々はGloFE(Gloss-Free End-to-end手話翻訳フレームワーク)を設計する。
本手法は,信号の共通意味と対応する音声翻訳を利用して,光沢のない環境下でのSLTの性能を向上させる。
OpenASLやHow2Signなど,大規模データセットの最先端結果を得た。
論文 参考訳(メタデータ) (2023-05-22T09:57:43Z) - Semantic Parsing for Conversational Question Answering over Knowledge
Graphs [63.939700311269156]
本研究では,ユーザの質問にSparqlパースとアノテートし,システム回答が実行結果に対応するデータセットを開発する。
本稿では,2つの意味解析手法を提案し,その課題を強調した。
私たちのデータセットとモデルはhttps://github.com/Edinburgh/SPICE.orgで公開されています。
論文 参考訳(メタデータ) (2023-01-28T14:45:11Z) - Chinese Word Sense Embedding with SememeWSD and Synonym Set [17.37973450772783]
本稿では,多文単語のすべての感覚に異なるベクトルを割り当てるために,SememeWSD Synonym(SWSDS)モデルを提案する。
OpenHowNetから単語センスの上位10の同義語を取得し、単語センスのベクトルとして同義語の平均ベクトルを算出する。
実験では,Gensimのwmdistance法を用いて意味的類似性計算におけるSWSDSモデルの評価を行った。
論文 参考訳(メタデータ) (2022-06-29T03:42:03Z) - MarkBERT: Marking Word Boundaries Improves Chinese BERT [67.53732128091747]
MarkBERTは、語彙を漢字として保持し、連続した単語間の境界マーカーを挿入する。
従来の単語ベースのBERTモデルと比較して、MarkBERTはテキスト分類、キーワード認識、意味的類似性タスクにおいて精度が向上している。
論文 参考訳(メタデータ) (2022-03-12T08:43:06Z) - Pretraining without Wordpieces: Learning Over a Vocabulary of Millions
of Words [50.11559460111882]
本稿では,単語ではなく単語の語彙上で,BERTスタイルの事前学習モデルを開発する可能性について検討する。
その結果,標準的なワードピースベースのBERTと比較して,WordBERTはクローゼテストや機械読解の大幅な改善を実現していることがわかった。
パイプラインは言語に依存しないので、中国語でWordBERTを訓練し、5つの自然言語理解データセットで大きな利益を得る。
論文 参考訳(メタデータ) (2022-02-24T15:15:48Z) - Connect-the-Dots: Bridging Semantics between Words and Definitions via
Aligning Word Sense Inventories [47.03271152494389]
Word Sense Disambiguationは、そのコンテキストに応じて、ある単語の正確な意味を自動的に識別することを目的としている。
既存の教師付きモデルは、限られた訓練データのために稀な単語感覚の正確な予測に苦慮している。
我々は,定義文を異なる意味の在庫から同じ意味に整合させ,豊富な語彙知識を収集する光沢アライメントアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-27T00:04:33Z) - Cross-lingual Word Sense Disambiguation using mBERT Embeddings with
Syntactic Dependencies [0.0]
言語間の単語感覚の曖昧さ (WSD) は、与えられた文脈にまたがるあいまいな単語の曖昧さに対処する。
BERT埋め込みモデルは、単語の文脈情報に有効であることが証明されている。
このプロジェクトは、構文情報がどのようにBERT埋め込みに追加され、セマンティクスと構文を組み込んだ単語埋め込みの両方をもたらすかを調査します。
論文 参考訳(メタデータ) (2020-12-09T20:22:11Z) - BERT for Monolingual and Cross-Lingual Reverse Dictionary [56.8627517256663]
本稿では,BERTが特定のタスクの目的語を生成するための,シンプルだが効果的な手法を提案する。
BERT (mBERT) を用いることで,1つの単語を埋め込んだ言語間逆辞書を効率的に行うことができる。
論文 参考訳(メタデータ) (2020-09-30T17:00:10Z) - Detecting New Word Meanings: A Comparison of Word Embedding Models in
Spanish [1.5356167668895644]
意味的ネオロジズム(英: Semantic neologisms, SN)は、その形態を維持しつつ、新しい意味を持つ単語である。
SNを半自動で検出するために,以下の戦略の組み合わせを実装したシステムを開発した。
本稿では,Word2Vec,Sense2Vec,FastTextという単語埋め込みモデルについて検討する。
論文 参考訳(メタデータ) (2020-01-12T21:54:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。