論文の概要: On Homophony and R\'enyi Entropy
- arxiv url: http://arxiv.org/abs/2109.13766v1
- Date: Tue, 28 Sep 2021 14:41:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-29 14:47:39.541583
- Title: On Homophony and R\'enyi Entropy
- Title(参考訳): ホモフォニーとR'enyiエントロピーについて
- Authors: Tiago Pimentel, Clara Meister, Simone Teufel, Ryan Cotterell
- Abstract要約: 自然言語におけるホモフォニーの存在は論争の的となっている。
最近の言語最適性の理論は、その有病率を正当化しようと試みている。
本稿では,言語のホモフォニーに関する情報理論の定量化を提案する。
- 参考スコア(独自算出の注目度): 46.043301568215995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Homophony's widespread presence in natural languages is a controversial
topic. Recent theories of language optimality have tried to justify its
prevalence, despite its negative effects on cognitive processing time; e.g.,
Piantadosi et al. (2012) argued homophony enables the reuse of efficient
wordforms and is thus beneficial for languages. This hypothesis has recently
been challenged by Trott and Bergen (2020), who posit that good wordforms are
more often homophonous simply because they are more phonotactically probable.
In this paper, we join in on the debate. We first propose a new
information-theoretic quantification of a language's homophony: the sample
R\'enyi entropy. Then, we use this quantification to revisit Trott and Bergen's
claims. While their point is theoretically sound, a specific methodological
issue in their experiments raises doubts about their results. After addressing
this issue, we find no clear pressure either towards or against homophony -- a
much more nuanced result than either Piantadosi et al.'s or Trott and Bergen's
findings.
- Abstract(参考訳): 自然言語におけるホモフォニーの存在は論争の的となっている。
最近の言語最適性の理論は、認知処理時間に悪影響を及ぼすにもかかわらず、その普及を正当化しようと試みている。例えば、Pantadosi et al. (2012) は、ホモフォニーは効率的な単語の再利用を可能にし、言語にとって有益であると主張した。
この仮説はTrottとBergen (2020) によって最近論じられ、良い単語形式は、より音韻論的に確率的であるため、よりホモフォニーであることが示唆された。
本稿では,議論に参加する。
まず,言語ホモフォニーの新たな情報理論的定量化(r\'enyi entropy)を提案する。
そして、この量化を使ってトロットとベルゲンの主張を再考する。
彼らの主張は理論上は正しいが、実験における特定の方法論上の問題は、その結果に疑問を呈する。
この問題に対処した後、ホモフォニーのどちらに対しても明確な圧力がかからない ― Piantadosi et al. や Trott や Bergen の発見よりも遥かに微妙な結果だ。
関連論文リスト
- Surprise! Uniform Information Density Isn't the Whole Story: Predicting Surprisal Contours in Long-form Discourse [54.08750245737734]
話者は、階層的に構造化された談話モデル内の位置に基づいて、情報率を変調する。
階層的予測器は談話の情報輪郭の重要な予測器であり,深い階層的予測器は浅い予測器よりも予測力が高いことがわかった。
論文 参考訳(メタデータ) (2024-10-21T14:42:37Z) - Correlation Does Not Imply Compensation: Complexity and Irregularity in the Lexicon [48.00488140516432]
形態的不規則性と音韻的複雑性との間に正の相関が認められた。
また,単語長と形態的不規則性の負の関係の弱い証拠も見出した。
論文 参考訳(メタデータ) (2024-06-07T18:09:21Z) - Patterns of Persistence and Diffusibility across the World's Languages [3.7055269158186874]
コレキシフィケーション(英: Colexification)は、複数の意味を伝えるために単一の語彙形式を用いる類似性の一種である。
我々は,言語間の類似性の言語的原因について,比較と音韻学で明らかにした。
我々は,1,966言語を対象とした意味,系譜,音韻,地理データを組み込んだ大規模グラフを構築した。
論文 参考訳(メタデータ) (2024-01-03T12:05:38Z) - Cognitive Dissonance: Why Do Language Model Outputs Disagree with
Internal Representations of Truthfulness? [53.98071556805525]
ニューラルネットワークモデル(LM)は、事実文の真偽を評価するために用いられる。
それらは、文の確率を問い合わせたり、真理の表現を内部で探したりすることができる。
過去の研究によると、これらの2つの手順は時折不一致であり、プローブはLM出力よりも正確である。
この結果、一部の研究者は、LMが非協力的なコミュニケーション意図を「十分」あるいは他の方法でコード化していると結論付けている。
論文 参考訳(メタデータ) (2023-11-27T18:59:14Z) - Testing the Predictions of Surprisal Theory in 11 Languages [77.45204595614]
本研究では,11言語における副次的時間と読解時間の関係について検討する。
より多様な言語に焦点をあてることで、これらの結果は、情報理論と言語間のインクリメンタル言語処理の最も堅牢なリンクを提供すると論じる。
論文 参考訳(メタデータ) (2023-07-07T15:37:50Z) - Large Language Models Are Partially Primed in Pronoun Interpretation [6.024776891570197]
大規模言語モデル (LLM) は, 刺激や実際の心理言語実験の手順を用いて, 人間のような参照バイアスを呈するかどうかを検討する。
最近の精神言語学的研究は、人間が参照パターンに最近露出することで参照バイアスに適応することを示唆している。
InstructGPTは,局所談話における参照パターンの頻度に応じて,その韻律的解釈に適応することがわかった。
論文 参考訳(メタデータ) (2023-05-26T13:30:48Z) - Do large language models resemble humans in language use? [1.8524806794216748]
ChatGPTやVicunaのような大規模言語モデル(LLM)は、言語を解釈し、生成する際、顕著な能力を示している。
私たちはChatGPTとVicunaを、音から対話、事前登録、実験1回につき1000ラン(イテレーション)の12の実験に応用した。
ChatGPTとVicunaは、それぞれ12の実験のうち10と7で人間の言語使用パターンを再現した。
論文 参考訳(メタデータ) (2023-03-10T10:47:59Z) - Subject Verb Agreement Error Patterns in Meaningless Sentences: Humans
vs. BERT [64.40111510974957]
英語における主語数合意に意味が干渉するかどうかを検証する。
意味的によく形づくられた、意味のないアイテムを生成します。
BERTと人間はどちらも、セマンティックな操作に敏感である。
論文 参考訳(メタデータ) (2022-09-21T17:57:23Z) - The Causal Structure of Semantic Ambiguities [0.0]
本研究は,(1)異なる解釈の連立可否度,(2)プロセスにおいて特定の単語がより重要な役割を果たす因果構造,の2つの特徴を同定する。
我々はこの理論を、心理学文献から抽出された曖昧なフレーズのデータセットと、私たちによって収集された人間の妥当性に応用した。
論文 参考訳(メタデータ) (2022-06-14T12:56:34Z) - Applying Syntax$\unicode{x2013}$Prosody Mapping Hypothesis and Prosodic
Well-Formedness Constraints to Neural Sequence-to-Sequence Speech Synthesis [7.609330016848916]
エンドツーエンドのテキスト音声(TTS)は、テキストや音素の文字列から直接音声を生成する。
本研究は,音韻的制約に基づき,リズミカル言語学を再現できるかどうかを考察する。
学習データに明示的に含まれていない試験データ中の音韻現象を効率よく合成するモデルを提案する。
論文 参考訳(メタデータ) (2022-03-29T06:45:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。