論文の概要: The optimality of word lengths. Theoretical foundations and an empirical
study
- arxiv url: http://arxiv.org/abs/2208.10384v5
- Date: Wed, 5 Apr 2023 09:52:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-06 16:25:18.119437
- Title: The optimality of word lengths. Theoretical foundations and an empirical
study
- Title(参考訳): 単語長の最適性。
理論的基礎と実証的研究
- Authors: Sonia Petrini, Antoni Casas-i-Mu\~noz, Jordi Cluet-i-Martinell,
Mengxue Wang, Christian Bentz and Ramon Ferrer-i-Cancho
- Abstract要約: Zipfの省略法則は圧縮の徴候と見なされている。
言語における単語長の最適度を初めて定量化する。
一般に、単語の長さは文字で書かれた単語の長さよりも最適化されている。
- 参考スコア(独自算出の注目度): 0.7682551949752529
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Zipf's law of abbreviation, namely the tendency of more frequent words to be
shorter, has been viewed as a manifestation of compression, i.e. the
minimization of the length of forms -- a universal principle of natural
communication. Although the claim that languages are optimized has become
trendy, attempts to measure the degree of optimization of languages have been
rather scarce. Here we present two optimality scores that are dualy normalized,
namely, they are normalized with respect to both the minimum and the random
baseline. We analyze the theoretical and statistical pros and cons of these and
other scores. Harnessing the best score, we quantify for the first time the
degree of optimality of word lengths in languages. This indicates that
languages are optimized to 62 or 67 percent on average (depending on the
source) when word lengths are measured in characters, and to 65 percent on
average when word lengths are measured in time. In general, spoken word
durations are more optimized than written word lengths in characters. Our work
paves the way to measure the degree of optimality of the vocalizations or
gestures of other species, and to compare them against written, spoken, or
signed human languages.
- Abstract(参考訳): Zipfの省略法則、すなわち、より頻繁な単語が短くなる傾向は、圧縮の顕在化、すなわち、フォームの長さの最小化、すなわち、自然なコミュニケーションの普遍的な原則と見なされている。
言語が最適化されているという主張はトレンドになっているが、言語の最適化の度合いを測定する試みはかなり少ない。
ここでは、双対正規化される2つの最適度スコア、すなわち、最小値とランダムベースラインの両方に関して正規化される。
これらと他のスコアの理論的および統計的な長所と短所を分析した。
最高のスコアを生かして、言語における単語長の最適度を初めて定量化する。
これは、単語の長さを文字で測定すると、言語は平均で62または67%、時間で測定すると平均で65%に最適化されていることを示している。
一般に、単語の長さは文字中の単語の長さよりも最適化されている。
我々の研究は、他の種の発声やジェスチャーの最適度を計測し、書き言葉、話し言葉、署名された人間の言語と比較する方法を定めている。
関連論文リスト
- Speech perception: a model of word recognition [0.0]
本稿では,音の相関効果を考慮した音声認識モデルを提案する。
このモデルの単語は、好適に選択された降下ダイナミクスの引力に対応する。
誤聴の有無で短い単語と長い単語を復号する方法について検討する。
論文 参考訳(メタデータ) (2024-10-24T09:41:47Z) - Syntactic Language Change in English and German: Metrics, Parsers, and Convergences [56.47832275431858]
本論文は,過去160年間の議会討論のコーパスを用いて,英語とドイツ語の統語的言語変化のダイアクロニックな傾向を考察する。
私たちは、広く使われているStanford Coreと、新しい4つの選択肢を含む5つの依存関係をベースとしています。
文長分布の尾部では,構文的尺度の変化が頻繁であることが明らかとなった。
論文 参考訳(メタデータ) (2024-02-18T11:46:16Z) - Revisiting the Optimality of Word Lengths [92.70590105707639]
通信コストは、さまざまな方法で運用できる。
Zipf (1935) は、単語形式は発話のコミュニケーションコストを最小限に抑えるために最適化されていると仮定した。
論文 参考訳(メタデータ) (2023-12-06T20:41:47Z) - A bounded rationality account of dependency length minimization in Hindi [0.0]
DependenCY LENGTH MINIMIZATIONの原理は、効果的なコミュニケーションのために人間の言語の構造を形成すると考えられている。
典型的には、長短成分と後短長成分の配置は、文全体の依存長を最小にすることが知られている。
本研究では,ヒンディー語における単語順の嗜好について,主動詞の横に最短助詞のみを置くという仮説を検証した。
論文 参考訳(メタデータ) (2023-04-22T13:53:50Z) - Direct and indirect evidence of compression of word lengths. Zipf's law
of abbreviation revisited [0.4893345190925177]
Zipfの省略法則は、より頻繁な単語が短くなる傾向にあり、言語普遍の最も堅固な候補の1つである。
特に14の言語族に属する46の言語において、この法が音声(単語の長さが時間で測定されている場合)にも当てはまるという証拠を提供する。
圧縮の直接的証拠の必要性から,単語の長さが体系的に低いことを示すランダムベースラインの簡単な公式を導出する。
論文 参考訳(メタデータ) (2023-03-17T17:12:18Z) - Long-range and hierarchical language predictions in brains and
algorithms [82.81964713263483]
深層言語アルゴリズムは隣接した単語の予測に最適化されているが、人間の脳は長距離で階層的な予測を行うように調整されている。
本研究は、予測符号化理論を強化し、自然言語処理における長距離および階層的予測の重要な役割を示唆する。
論文 参考訳(メタデータ) (2021-11-28T20:26:07Z) - Dependency distance minimization predicts compression [1.2944868613449219]
依存性距離最小化(DDm)は、単語順序の確立された原理である。
これは、原理と他の原理とを結び付けるためであり、一階予測のように原則と宣言を結び付けるためである。
最近導入されたスコアは、広く使われている依存性距離の和に関して、数学的、統計的に多くの利点がある。
論文 参考訳(メタデータ) (2021-09-18T10:53:39Z) - Speakers Fill Lexical Semantic Gaps with Context [65.08205006886591]
我々は単語の語彙的あいまいさを意味のエントロピーとして運用する。
単語のあいまいさの推定値と,WordNetにおける単語の同義語数との間には,有意な相関関係が認められた。
これは、あいまいさの存在下では、話者が文脈をより情報的にすることで補うことを示唆している。
論文 参考訳(メタデータ) (2020-10-05T17:19:10Z) - The optimality of syntactic dependency distances [0.802904964931021]
空間ネットワーク上での最適化問題として,文の単語順の最適性の問題を再放送する。
文中の単語間の距離を減らすために認知的圧力を定量化する新しいスコアを導入する。
93言語からの文の分析により、言語の半分が70%以上に最適化されていることが明らかになった。
論文 参考訳(メタデータ) (2020-07-30T09:40:41Z) - Toward Better Storylines with Sentence-Level Language Models [54.91921545103256]
本稿では,文章中の次の文を選択する文レベル言語モデルを提案する。
教師なしストーリークローゼタスクにおける最先端の精度によるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-11T16:54:19Z) - Phonotactic Complexity and its Trade-offs [73.10961848460613]
この単純な測度により、言語間のエントロピーを比較することができる。
音素あたりのビット数と単語の平均長との間には-0.74の非常に強い負の相関関係を示す。
論文 参考訳(メタデータ) (2020-05-07T21:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。