論文の概要: What company do words keep? Revisiting the distributional semantics of
J.R. Firth & Zellig Harris
- arxiv url: http://arxiv.org/abs/2205.07750v1
- Date: Mon, 16 May 2022 15:24:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 14:57:00.397133
- Title: What company do words keep? Revisiting the distributional semantics of
J.R. Firth & Zellig Harris
- Title(参考訳): 単語はどの会社に保管されますか。
J.R. Firth & Zellig Harrisの分布意味論の再検討
- Authors: Mikael Brunila and Jack LaViolette
- Abstract要約: J.R. Firth と Zellig Harris はしばしば「分配意味論」の発明で知られている。
FirthとHarrisはすべての主要なNLP教科書や多くの基礎論文に引用されている。
1つは言語形式の内部的な作業にのみ焦点を合わせ、もう1つは新しい会社で言葉を考えることを呼びかけます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The power of word embeddings is attributed to the linguistic theory that
similar words will appear in similar contexts. This idea is specifically
invoked by noting that "you shall know a word by the company it keeps," a quote
from British linguist J.R. Firth who, along with his American colleague Zellig
Harris, is often credited with the invention of "distributional semantics."
While both Firth and Harris are cited in all major NLP textbooks and many
foundational papers, the content and differences between their theories is
seldom discussed. Engaging in a close reading of their work, we discover two
distinct and in many ways divergent theories of meaning. One focuses
exclusively on the internal workings of linguistic forms, while the other
invites us to consider words in new company - not just with other linguistic
elements, but also in a broader cultural and situational context. Contrasting
these theories from the perspective of current debates in NLP, we discover in
Firth a figure who could guide the field towards a more culturally grounded
notion of semantics. We consider how an expanded notion of "context" might be
modeled in practice through two different strategies: comparative
stratification and syntagmatic extension
- Abstract(参考訳): 単語埋め込みの力は、同様の単語が同様の文脈で現れるという言語理論に起因している。
このアイデアは、イギリスの言語学者J・R・ファース(J.R. Firth)とアメリカの同僚であるゼリグ・ハリス(Zellig Harris)は、しばしば「分配的意味論(distributional semantics)」の発明で知られている。
FirthとHarrisはいずれも主要なNLP教科書や多くの基礎論文に引用されているが、それらの理論の内容と相違は議論されることがほとんどない。
彼らの研究をよく読むことで、我々は2つの異なる意味論を多くの点で別々に発見する。
ひとつは言語形式の内部的な作業に特化しており、もう一方は、他の言語要素だけでなく、より広い文化的・状況的な文脈においても、新しい会社で言葉を考えるように呼びかけています。
これらの理論は、NLPにおける現在の議論の観点からは対照的に、Firthにおいて、より文化的に根ざした意味論の考え方へと分野を導くことができる人物を発見した。
文脈」という拡張概念が, 比較階層化と合成拡張という2つの異なる戦略を通して実際にモデル化される可能性を考える。
関連論文リスト
- To Word Senses and Beyond: Inducing Concepts with Contextualized Language Models [0.9176056742068812]
多義語と同義語は語彙的あいまいさの重要な面である。
本稿では,単語間のソフトクラスタリングを学習する教師なしタスクである概念誘導について紹介する。
本稿では,局所レンマ中心の視点と大域的相互関係の視点を両立する概念誘導手法を提案する。
論文 参考訳(メタデータ) (2024-06-28T17:07:06Z) - What is a word? [1.223779595809275]
語彙アクセスと意味論を分離するための強力なパラダイムを設計するには、単語が何であるかを知る必要がある。
この文書は、レキシコンが(しばしば誤解されるが)何であるか、(現在の良い理論に基づいて)何であるか、そして実験設計にどのような意味があるのかを概説している。
論文 参考訳(メタデータ) (2024-02-19T23:58:20Z) - Not wacky vs. definitely wacky: A study of scalar adverbs in pretrained
language models [0.0]
BERT、RoBERTa、GPT-3といった現代の事前訓練された言語モデルは、古典的な静的単語の埋め込みよりも論理的なタスクでより良いパフォーマンスを期待している。
本稿では,BERT,RoBERTa,GPT-2,GPT-3が,これらの共通語に対する一般人的な知識を示す範囲について検討する。
論理的な意味のいくつかの側面を捉えているにもかかわらず、モデルは人間のパフォーマンスにかなり劣っていることが分かりました。
論文 参考訳(メタデータ) (2023-05-25T18:56:26Z) - Towards Unsupervised Recognition of Token-level Semantic Differences in
Related Documents [61.63208012250885]
意味的差異をトークンレベルの回帰タスクとして認識する。
マスク付き言語モデルに依存する3つの教師なしアプローチについて検討する。
その結果,単語アライメントと文レベルのコントラスト学習に基づくアプローチは,ゴールドラベルと強い相関関係があることが示唆された。
論文 参考訳(メタデータ) (2023-05-22T17:58:04Z) - When is Wall a Pared and when a Muro? -- Extracting Rules Governing
Lexical Selection [85.0262994506624]
本稿では,微細な語彙の区別を自動的に識別する手法を提案する。
我々は、これらの区別を説明する簡潔な記述を、人間と機械で読める形式で抽出する。
我々はこれらの記述を用いて、与えられた曖昧な単語を異なる可能な翻訳に翻訳する時、非ネイティブ話者に教える。
論文 参考訳(メタデータ) (2021-09-13T14:49:00Z) - Theoretical foundations and limits of word embeddings: what types of
meaning can they capture? [0.0]
意味を測定することは文化社会学の中心的な問題である。
私は、単語埋め込みが意味の構造的言語理論の3つの中核的な前提をモデル化する方法を理論化します。
論文 参考訳(メタデータ) (2021-07-22T00:40:33Z) - Paraphrases do not explain word analogies [7.925721969561822]
多くの種類の分布語埋め込みは言語規則を指示としてエンコードする。
Allen and Hospedalesの最近の動向(ICML、理論的説明)に対応します。
我々は、説明が通らないことを実証する:この説明の下で必要な言い換えの関係は、経験的に保持していない。
論文 参考訳(メタデータ) (2021-02-23T15:25:10Z) - Probing Pretrained Language Models for Lexical Semantics [76.73599166020307]
類型的多様言語と5つの異なる語彙課題にまたがる系統的経験分析を行った。
我々の結果は、普遍的に維持されるパターンとベストプラクティスを示しているが、言語やタスクにまたがる顕著なバリエーションを示している。
論文 参考訳(メタデータ) (2020-10-12T14:24:01Z) - Speakers Fill Lexical Semantic Gaps with Context [65.08205006886591]
我々は単語の語彙的あいまいさを意味のエントロピーとして運用する。
単語のあいまいさの推定値と,WordNetにおける単語の同義語数との間には,有意な相関関係が認められた。
これは、あいまいさの存在下では、話者が文脈をより情報的にすることで補うことを示唆している。
論文 参考訳(メタデータ) (2020-10-05T17:19:10Z) - Where New Words Are Born: Distributional Semantic Analysis of Neologisms
and Their Semantic Neighborhoods [51.34667808471513]
分散意味論のパラダイムで定式化されたセマンティック隣人のセマンティック・スパシティと周波数成長率という2つの要因の重要性について検討する。
いずれの因子も単語の出現を予測できるが,後者の仮説はより支持される。
論文 参考訳(メタデータ) (2020-01-21T19:09:49Z) - Lexical Sememe Prediction using Dictionary Definitions by Capturing
Local Semantic Correspondence [94.79912471702782]
セメムは人間の言語の最小の意味単位として定義されており、多くのNLPタスクで有用であることが証明されている。
本稿では,このようなマッチングを捕捉し,セメムを予測できるセメム対応プールモデルを提案する。
我々は,有名なSememe KB HowNetのモデルとベースライン手法を評価し,そのモデルが最先端のパフォーマンスを実現することを発見した。
論文 参考訳(メタデータ) (2020-01-16T17:30:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。