論文の概要: Speakers Fill Lexical Semantic Gaps with Context
- arxiv url: http://arxiv.org/abs/2010.02172v4
- Date: Tue, 28 May 2024 16:00:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 05:10:10.916876
- Title: Speakers Fill Lexical Semantic Gaps with Context
- Title(参考訳): 語彙的セマンティック・ギャップを文脈で埋める話者
- Authors: Tiago Pimentel, Rowan Hall Maudslay, Damián Blasi, Ryan Cotterell,
- Abstract要約: 我々は単語の語彙的あいまいさを意味のエントロピーとして運用する。
単語のあいまいさの推定値と,WordNetにおける単語の同義語数との間には,有意な相関関係が認められた。
これは、あいまいさの存在下では、話者が文脈をより情報的にすることで補うことを示唆している。
- 参考スコア(独自算出の注目度): 65.08205006886591
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lexical ambiguity is widespread in language, allowing for the reuse of economical word forms and therefore making language more efficient. If ambiguous words cannot be disambiguated from context, however, this gain in efficiency might make language less clear -- resulting in frequent miscommunication. For a language to be clear and efficiently encoded, we posit that the lexical ambiguity of a word type should correlate with how much information context provides about it, on average. To investigate whether this is the case, we operationalise the lexical ambiguity of a word as the entropy of meanings it can take, and provide two ways to estimate this -- one which requires human annotation (using WordNet), and one which does not (using BERT), making it readily applicable to a large number of languages. We validate these measures by showing that, on six high-resource languages, there are significant Pearson correlations between our BERT-based estimate of ambiguity and the number of synonyms a word has in WordNet (e.g. $\rho = 0.40$ in English). We then test our main hypothesis -- that a word's lexical ambiguity should negatively correlate with its contextual uncertainty -- and find significant correlations on all 18 typologically diverse languages we analyse. This suggests that, in the presence of ambiguity, speakers compensate by making contexts more informative.
- Abstract(参考訳): 語彙的曖昧さは言語に広く浸透し、経済的な単語の再利用を可能にし、言語をより効率的にする。
しかし、もし曖昧な単語が文脈から曖昧にできない場合、この効率の上昇が言語を明瞭にし、頻繁な誤ったコミュニケーションをもたらす可能性がある。言語を明確かつ効率的に符号化するためには、単語型の語彙的あいまいさは、平均的に、その文脈にどの程度の情報を提供するかと相関するべきであると仮定する。この場合、単語の語彙的あいまいさをその意味のエントロピーとして運用するには、人間のアノテーションを必要とするもの(WordNetを使用)と、そうでないもの(BERTを使用)の2つの方法を提供する。
我々は,6つの高リソース言語において,BERTに基づくあいまいさの推定値とWordNet(例えば$\rho = 0.40$)における単語の同義語数との間に,ピアソンの有意な相関関係があることを示し,これらの評価を検証した。
次に、単語の語彙的曖昧さが文脈的不確実性と負の相関関係にあるという我々の主要な仮説を検証し、我々が分析する18の類型的多様言語全てに有意な相関関係を見出す。
これは、あいまいさの存在下では、話者が文脈をより情報的にすることで補うことを示唆している。
関連論文リスト
- Word Sense Disambiguation in Native Spanish: A Comprehensive Lexical Evaluation Resource [2.7775559369441964]
文脈における単語の語彙的意味は、Word Sense Disambiguation (WSD)アルゴリズムによって自動的に決定できる。
本稿では,スペインのWSDの新たな資源について紹介する。
センセーショナルインベントリと、ディクシオリオ・デ・ラ・レングア・エスパノラ(Diccionario de la Lengua Espanola)に由来する語彙データセットを含んでいる。
論文 参考訳(メタデータ) (2024-09-30T17:22:33Z) - Beyond Shared Vocabulary: Increasing Representational Word Similarities
across Languages for Multilingual Machine Translation [9.794506112999823]
本稿では,単語等価クラスによる単語レベルの情報伝達経路を定義し,言語間の単語埋め込みを融合するグラフネットワークに依存する。
1) 類似した意味を持つ単語の埋め込みは言語間で整合性がよいこと,2) 提案手法は高・低リソースのMNMTに対して最大2.3ポイントのBLEU改善を実現すること,3) 計算コストの制限により1.0%未満のトレーニング可能なパラメータを必要とすること,である。
論文 参考訳(メタデータ) (2023-05-23T16:11:00Z) - We're Afraid Language Models Aren't Modeling Ambiguity [136.8068419824318]
あいまいさの管理は人間の言語理解の重要な部分です。
文中のあいまいさは,他の文との係り受け関係に与える影響によって特徴付けられる。
我々は,多ラベルNLIモデルが曖昧さによって誤解を招く野生の政治的主張にフラグを付けることができることを示す。
論文 参考訳(メタデータ) (2023-04-27T17:57:58Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - Subject Verb Agreement Error Patterns in Meaningless Sentences: Humans
vs. BERT [64.40111510974957]
英語における主語数合意に意味が干渉するかどうかを検証する。
意味的によく形づくられた、意味のないアイテムを生成します。
BERTと人間はどちらも、セマンティックな操作に敏感である。
論文 参考訳(メタデータ) (2022-09-21T17:57:23Z) - Lost in Context? On the Sense-wise Variance of Contextualized Word
Embeddings [11.475144702935568]
各単語感覚の文脈的埋め込みが、典型的な事前学習モデルにおける文脈によってどの程度異なるかを定量化する。
単語表現は位置バイアスを受けており、異なる文脈における最初の単語はより類似する傾向にある。
論文 参考訳(メタデータ) (2022-08-20T12:27:25Z) - RAW-C: Relatedness of Ambiguous Words--in Context (A New Lexical
Resource for English) [2.792030485253753]
文脈的埋め込みが単語の意味の連続的、動的性質にどの程度適合しているかを評価する。
我々は、コサイン距離が、人間が同じ単語の感覚をいかに利用しているかを体系的に過小評価していることを示す。
本稿では,精神語彙の心理言語学理論と語彙意味論の計算モデルとの合成を提案する。
論文 参考訳(メタデータ) (2021-05-27T16:07:13Z) - AM2iCo: Evaluating Word Meaning in Context across Low-ResourceLanguages
with Adversarial Examples [51.048234591165155]
本稿では, AM2iCo, Adversarial and Multilingual Meaning in Contextを提案する。
言語間文脈における単語の意味の同一性を理解するために、最先端(SotA)表現モデルを忠実に評価することを目的としている。
その結果、現在のSotAプリトレーニングエンコーダは人間のパフォーマンスにかなり遅れていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T20:23:45Z) - On the Importance of Word Order Information in Cross-lingual Sequence
Labeling [80.65425412067464]
ソース言語の単語順に適合する言語間モデルでは、ターゲット言語を処理できない可能性がある。
本研究では,ソース言語の単語順序に敏感なモデルを作成することで,対象言語の適応性能が向上するかどうかを検討する。
論文 参考訳(メタデータ) (2020-01-30T03:35:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。