論文の概要: What is a word?
- arxiv url: http://arxiv.org/abs/2402.12605v1
- Date: Mon, 19 Feb 2024 23:58:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 17:47:18.164616
- Title: What is a word?
- Title(参考訳): 単語とは何か?
- Authors: Elliot Murphy
- Abstract要約: 語彙アクセスと意味論を分離するための強力なパラダイムを設計するには、単語が何であるかを知る必要がある。
この文書は、レキシコンが(しばしば誤解されるが)何であるか、(現在の良い理論に基づいて)何であるか、そして実験設計にどのような意味があるのかを概説している。
- 参考スコア(独自算出の注目度): 1.223779595809275
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In order to design strong paradigms for isolating lexical access and
semantics, we need to know what a word is. Surprisingly few linguists and
philosophers have a clear model of what a word is, even though words impact
basically every aspect of human life. Researchers that regularly publish
academic papers about language often rely on outdated, or inaccurate,
assumptions about wordhood. This short pedagogical document outlines what the
lexicon is most certainly not (though is often mistakenly taken to be), what it
might be (based on current good theories), and what some implications for
experimental design are.
- Abstract(参考訳): 語彙アクセスと意味論を分離する強力なパラダイムを設計するためには、単語が何であるかを知る必要がある。
驚くべきことに、言語学者や哲学者は、言葉が人間の生活のあらゆる側面に影響を与えるにもかかわらず、単語が何であるか明確なモデルを持っている。
言語に関する学術論文を定期的に出版する研究者は、しばしば古くなった、または不正確な言葉化に関する仮定に依存する。
この短い教育文書は、レキシコンが(しばしば間違えられるが)最も確実にそうでないもの、それが何であるか(現在の良い理論に基づく)、そして実験設計にどのような意味があるのかを概説している。
関連論文リスト
- Not wacky vs. definitely wacky: A study of scalar adverbs in pretrained
language models [0.0]
BERT、RoBERTa、GPT-3といった現代の事前訓練された言語モデルは、古典的な静的単語の埋め込みよりも論理的なタスクでより良いパフォーマンスを期待している。
本稿では,BERT,RoBERTa,GPT-2,GPT-3が,これらの共通語に対する一般人的な知識を示す範囲について検討する。
論理的な意味のいくつかの側面を捉えているにもかかわらず、モデルは人間のパフォーマンスにかなり劣っていることが分かりました。
論文 参考訳(メタデータ) (2023-05-25T18:56:26Z) - Neighboring Words Affect Human Interpretation of Saliency Explanations [65.29015910991261]
単語レベルのサリエンシの説明は、しばしばテキストベースのモデルで特徴属性を伝えるために使われる。
近年の研究では、単語の長さなどの表面的要因が、コミュニケーションされたサリエンシスコアの人間の解釈を歪めてしまうことが報告されている。
本研究では,単語の近傍にある単語のマーキングが,その単語の重要性に対する説明者の認識にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2023-05-04T09:50:25Z) - What company do words keep? Revisiting the distributional semantics of
J.R. Firth & Zellig Harris [0.0]
J.R. Firth と Zellig Harris はしばしば「分配意味論」の発明で知られている。
FirthとHarrisはすべての主要なNLP教科書や多くの基礎論文に引用されている。
1つは言語形式の内部的な作業にのみ焦点を合わせ、もう1つは新しい会社で言葉を考えることを呼びかけます。
論文 参考訳(メタデータ) (2022-05-16T15:24:30Z) - When is Wall a Pared and when a Muro? -- Extracting Rules Governing
Lexical Selection [85.0262994506624]
本稿では,微細な語彙の区別を自動的に識別する手法を提案する。
我々は、これらの区別を説明する簡潔な記述を、人間と機械で読める形式で抽出する。
我々はこれらの記述を用いて、与えられた曖昧な単語を異なる可能な翻訳に翻訳する時、非ネイティブ話者に教える。
論文 参考訳(メタデータ) (2021-09-13T14:49:00Z) - PREDICT: Persian Reverse Dictionary [0.0]
ペルシャ逆辞書実装のための4つの異なるアーキテクチャの比較 (予測)
我々は,オンラインで利用可能な唯一のペルシア語辞書から抽出した (phrase,word) 単語を用いてモデルを評価する。
実験では、付加的注意メカニズムによって強化されたLong Short-Term Memory(LSTM)単位からなるモデルが、元の辞書の単語に匹敵する(場合によってはより良い)提案を作成するのに十分であることを示している。
論文 参考訳(メタデータ) (2021-05-01T17:37:01Z) - Overcoming Poor Word Embeddings with Word Definitions [1.0878040851638]
より稀な単語に依存する例は、自然言語推論モデルにおいてより困難であることを示す。
モデルの定義に対する理解は通常、よくモデル化された単語埋め込みよりも弱いが、完全に訓練されていない単語の使用からパフォーマンスのギャップの大部分を回復する。
論文 参考訳(メタデータ) (2021-03-05T17:57:54Z) - Disambiguatory Signals are Stronger in Word-initial Positions [48.18148856974974]
単語の初期と後期のセグメントの情報を比較するための既存の手法の相違点を指摘する。
何百もの言語にまたがって、言葉で情報を読み込むという言語横断的な傾向があるという証拠が見つかりました。
論文 参考訳(メタデータ) (2021-02-03T18:19:16Z) - Lexical semantic change for Ancient Greek and Latin [61.69697586178796]
歴史的文脈における単語の正しい意味の連想は、ダイアクロニック研究の中心的な課題である。
我々は、動的ベイズ混合モデルに基づくセマンティック変化に対する最近の計算的アプローチに基づいて構築する。
本研究では,動的ベイズ混合モデルと最先端埋め込みモデルとのセマンティックな変化を系統的に比較する。
論文 参考訳(メタデータ) (2021-01-22T12:04:08Z) - Probing Pretrained Language Models for Lexical Semantics [76.73599166020307]
類型的多様言語と5つの異なる語彙課題にまたがる系統的経験分析を行った。
我々の結果は、普遍的に維持されるパターンとベストプラクティスを示しているが、言語やタスクにまたがる顕著なバリエーションを示している。
論文 参考訳(メタデータ) (2020-10-12T14:24:01Z) - Speakers Fill Lexical Semantic Gaps with Context [65.08205006886591]
我々は単語の語彙的あいまいさを意味のエントロピーとして運用する。
単語のあいまいさの推定値と,WordNetにおける単語の同義語数との間には,有意な相関関係が認められた。
これは、あいまいさの存在下では、話者が文脈をより情報的にすることで補うことを示唆している。
論文 参考訳(メタデータ) (2020-10-05T17:19:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。