論文の概要: Evolution of grammatical forms: some quantitative approaches
- arxiv url: http://arxiv.org/abs/2302.02655v1
- Date: Mon, 6 Feb 2023 09:50:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 17:05:49.391352
- Title: Evolution of grammatical forms: some quantitative approaches
- Title(参考訳): 文法形式の進化 : いくつかの定量的アプローチ
- Authors: Jean-Marc Luck and Anita Mehta
- Abstract要約: 文法形式は2つの主要なメカニズムによって進化すると言われている。
これらは降下機構と接触機構である。
我々は統計物理学のアイデアと概念を使って、一連の静的および動的モデルの定式化を行っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Grammatical forms are said to evolve via two main mechanisms. These are,
respectively, the `descent' mechanism, where current forms can be seen to have
descended (albeit with occasional modifications) from their roots in ancient
languages, and the `contact' mechanism, where evolution in a given language
occurs via borrowing from other languages with which it is in contact. We use
ideas and concepts from statistical physics to formulate a series of static and
dynamical models which illustrate these issues in general terms. The static
models emphasise the relative numbers of rules and exceptions, while the
dynamical models focus on the emergence of exceptional forms. These unlikely
survivors among various competing grammatical forms are winners against the
odds. Our analysis suggests that they emerge when the influence of neighbouring
languages exceeds the generic tendency towards regularisation within individual
languages.
- Abstract(参考訳): 文法形式は2つの主要なメカニズムによって進化すると言われている。
これらはそれぞれ、現在の形式が古代言語におけるそのルーツから(時折変更されることもあるが)下降しているように見える'descent' メカニズムと、その言語が接触している他の言語からの借用によって特定の言語の進化が起こる'contact' メカニズムである。
我々は統計物理学のアイデアと概念を用いて、これらの問題を一般的な用語で示す一連の静的および動的モデルを定式化する。
静的モデルは規則と例外の相対的な数を強調し、動的モデルは例外形式の出現に焦点を当てている。
様々な競合する文法形式の生き残りは、確率に対する勝者である。
分析の結果,隣接する言語の影響が,個々の言語における正規化に対する一般的な傾向を超えると出現することが示唆された。
関連論文リスト
- Analyzing The Language of Visual Tokens [48.62180485759458]
我々は、離散的な視覚言語を分析するために、自然言語中心のアプローチをとる。
トークンの高度化はエントロピーの増大と圧縮の低下を招き,トークンが主にオブジェクト部品を表すことを示す。
また、視覚言語には結合的な文法構造が欠如していることが示され、自然言語と比較して難易度が高く、階層構造が弱いことが判明した。
論文 参考訳(メタデータ) (2024-11-07T18:59:28Z) - Geometry of Language [0.0]
様々なソースからのアイデアを組み合わせながら、新しい合成で混ざり合った言語について、新しい視点を提示する。
問題は、エレガントな形式主義、普遍文法、あるいは人間の言語学の重要な側面を説明するメカニズムを定式化できるかどうかである。
このようなメカニズムは、その幾何学的性質によって、既存の論理的・文法的アプローチとは異なる。
論文 参考訳(メタデータ) (2023-03-09T12:22:28Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - Same Neurons, Different Languages: Probing Morphosyntax in Multilingual
Pre-trained Models [84.86942006830772]
多言語事前学習モデルは文法に関する言語・ユニバーサルの抽象化を導出できると推測する。
43の言語と14のモルフォシンタクティックなカテゴリーで、最先端のニューロンレベルのプローブを用いて、初めて大規模な実験を行った。
論文 参考訳(メタデータ) (2022-05-04T12:22:31Z) - Oracle Linguistic Graphs Complement a Pretrained Transformer Language
Model: A Cross-formalism Comparison [13.31232311913236]
言語グラフ表現が神経言語モデリングを補完し改善する程度について検討する。
全体としては、セマンティックな選挙区構造は言語モデリングのパフォーマンスに最も有用である。
論文 参考訳(メタデータ) (2021-12-15T04:29:02Z) - Language Model Evaluation Beyond Perplexity [47.268323020210175]
我々は、言語モデルから生成されたテキストが、訓練された人為的なテキストに存在する統計的傾向を示すかどうかを分析する。
ニューラルネットワークモデルは、考慮された傾向のサブセットのみを学習しているように見えるが、提案された理論分布よりも経験的傾向とより密接に一致している。
論文 参考訳(メタデータ) (2021-05-31T20:13:44Z) - How individuals change language [1.2437226707039446]
我々は,多種多様な個人レベルの言語行動を含む,非常に一般的な数学的モデルを導入する。
異なる仮定の下で複数の言語における定冠詞と不定冠詞の実証的な変化の可能性を比較した。
幼児期の言語習得の誤りを主眼とする言語変化の説明は、歴史的データによって非常に弱く支持されている。
論文 参考訳(メタデータ) (2021-04-20T19:02:49Z) - Investigating Cross-Linguistic Adjective Ordering Tendencies with a
Latent-Variable Model [66.84264870118723]
本稿では,多言語形容詞順序付けを潜在変数モデルとして,初めて純粋コーパス駆動モデルを提案する。
我々は普遍的、言語横断的、階層的形容詞順序付け傾向の存在の強い確固たる証拠を提供する。
論文 参考訳(メタデータ) (2020-10-09T18:27:55Z) - On the coexistence of competing languages [0.0]
我々は,共存がもたらされる可能性のある方法を明らかにすることに焦点を当て,言語競争の問題を再考する。
この出現は対称性の破れに関連しており、2つの特定のシナリオを探索している。
いずれも、パラダイム的状況の調査は、言語共存につながる条件を定量的に理解することにつながる。
論文 参考訳(メタデータ) (2020-03-10T14:06:55Z) - A Simple Joint Model for Improved Contextual Neural Lemmatization [60.802451210656805]
本稿では,20言語で最先端の成果を得られる,単純結合型ニューラルモデルを提案する。
本論文では,トレーニングと復号化に加えて,本モデルについて述べる。
論文 参考訳(メタデータ) (2019-04-04T02:03:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。