論文の概要: One Sense Per Translation
- arxiv url: http://arxiv.org/abs/2106.06082v1
- Date: Thu, 10 Jun 2021 23:24:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 06:01:18.647064
- Title: One Sense Per Translation
- Title(参考訳): 翻訳1件につき一感
- Authors: Bradley Hauer, Grzegorz Kondrak
- Abstract要約: そこで本論文では,なぜ合理的なアイデアが有用でなかったのかという疑問に答えられる理論的枠組みを提案する。
我々は、単語の翻訳がその感覚とどのように関連しているか、また同義語と多節語の関係についていくつかの命題を証明した。
- 参考スコア(独自算出の注目度): 9.162936410696409
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The idea of using lexical translations to define sense inventories has a long
history in lexical semantics. We propose a theoretical framework which allows
us to answer the question of why this apparently reasonable idea failed to
produce useful results. We formally prove several propositions on how the
translations of a word relate to its senses, as well as on the relationship
between synonymy and polysemy. We empirically validate our theoretical findings
on BabelNet, and demonstrate how they could be used to perform unsupervised
word sense disambiguation of a substantial fraction of the lexicon.
- Abstract(参考訳): 感覚の在庫を定義するために語彙翻訳を使うという考えは、語彙意味論において長い歴史を持っている。
我々は、この一見合理的なアイデアがなぜ有用な結果を生み出せなかったのかという疑問に答えるための理論的枠組みを提案する。
我々は、単語の翻訳がその感覚とどのように関連しているか、また同義語と多義語の関係について、いくつかの命題を正式に証明する。
我々は,BabelNetに関する理論的知見を実証的に検証し,語彙のかなりの部分の教師なし単語感覚の曖昧さをいかに実現できるかを実証した。
関連論文リスト
- Prosody in Cascade and Direct Speech-to-Text Translation: a case study
on Korean Wh-Phrases [79.07111754406841]
本研究は,韻律が重要な役割を果たす発話を明瞭にするための直接S2TTシステムの能力を評価するために,コントラスト評価を用いることを提案する。
本結果は,カスケード翻訳モデルよりも直接翻訳システムの価値を明確に示すものである。
論文 参考訳(メタデータ) (2024-02-01T14:46:35Z) - Semantic Specialization for Knowledge-based Word Sense Disambiguation [12.573927420408365]
知識に基づくWord Sense Disambiguation (WSD) のための有望なアプローチは、ある文中の対象語に対して計算された単語に最も近い文脈的埋め込みを持つ感覚を選択することである。
本稿では,文脈適応型埋め込みを語彙知識のみを用いてWSDタスクに適応させるWSDのセマンティック・スペシャライゼーションを提案する。
論文 参考訳(メタデータ) (2023-04-22T07:40:23Z) - Retrieval-based Disentangled Representation Learning with Natural
Language Supervision [61.75109410513864]
本稿では,VDR(Vocabulary Disentangled Retrieval)を提案する。
提案手法では,両エンコーダモデルを用いて語彙空間におけるデータと自然言語の両方を表現する。
論文 参考訳(メタデータ) (2022-12-15T10:20:42Z) - Multilingual Word Sense Disambiguation with Unified Sense Representation [55.3061179361177]
本稿では,知識と教師付き多言語単語センス曖昧化(MWSD)システムを提案する。
我々は複数の言語に統一されたセンス表現を構築し、リッチソース言語から貧しい言語へアノテーションを転送することでMWSDのアノテーション不足問題に対処する。
SemEval-13およびSemEval-15データセットの評価により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-10-14T01:24:03Z) - DEEP: DEnoising Entity Pre-training for Neural Machine Translation [123.6686940355937]
機械翻訳モデルは通常、トレーニングコーパスで稀な名前付きエンティティの翻訳を貧弱に生成することが示されている。
文中の名前付きエンティティ翻訳精度を向上させるために,大量のモノリンガルデータと知識ベースを利用するDenoising Entity Pre-training法であるDEEPを提案する。
論文 参考訳(メタデータ) (2021-11-14T17:28:09Z) - Connect-the-Dots: Bridging Semantics between Words and Definitions via
Aligning Word Sense Inventories [47.03271152494389]
Word Sense Disambiguationは、そのコンテキストに応じて、ある単語の正確な意味を自動的に識別することを目的としている。
既存の教師付きモデルは、限られた訓練データのために稀な単語感覚の正確な予測に苦慮している。
我々は,定義文を異なる意味の在庫から同じ意味に整合させ,豊富な語彙知識を収集する光沢アライメントアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-27T00:04:33Z) - Large Scale Substitution-based Word Sense Induction [48.49573297876054]
本稿では,事前学習されたマスキング言語モデル(MLM)に基づく単語センス誘導手法を提案する。
その結果、コーパス由来の感覚インベントリに基づいて感覚タグ付けされ、各感覚が指示語に関連付けられているコーパスとなる。
本手法を用いた英語ウィキペディアの評価では,Babelfy などの WSD 手法と比較しても,誘導された感覚とインスタンスごとの感覚代入の両方が高品質であることがわかった。
論文 参考訳(メタデータ) (2021-10-14T19:40:37Z) - Semi-Supervised and Unsupervised Sense Annotation via Translations [26.595015138290613]
感性アノテートコーパスを作成するための3つの新しい手法を提案する。
我々の半教師あり手法は、既存のセンスアノテーションを他の言語に転送するために機械翻訳を適用する。
2つの教師なし手法は、知識に基づくWSDシステムを用いて並列コーパスを注釈し、語彙翻訳を識別することで得られた感覚アノテーションを洗練する。
論文 参考訳(メタデータ) (2021-06-11T15:32:46Z) - SensPick: Sense Picking for Word Sense Disambiguation [1.1429576742016154]
我々は,対象単語の文脈情報と関連する光沢情報の両方を用いて,単語とグルースの集合間の意味的関係をモデル化する。
We propose SensPick, a type of stacked bidirectional Long Short Term Memory (LSTM) network to perform the WSD task。
論文 参考訳(メタデータ) (2021-02-10T04:52:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。