論文の概要: Exposure and Emergence in Usage-Based Grammar: Computational Experiments
in 35 Languages
- arxiv url: http://arxiv.org/abs/2211.14160v1
- Date: Fri, 25 Nov 2022 15:05:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 16:19:11.607576
- Title: Exposure and Emergence in Usage-Based Grammar: Computational Experiments
in 35 Languages
- Title(参考訳): 用法に基づく文法の露出と出現:35言語による計算実験
- Authors: Jonathan Dunn
- Abstract要約: 本稿では,建築文法の出現における露出の役割について考察する。
実験により、語彙は文法よりも急速に成長することが示された。
最近観測されていないとき、建設が忘れられる確率は、建設物の成長率を反映している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper uses computational experiments to explore the role of exposure in
the emergence of construction grammars. While usage-based grammars are
hypothesized to depend on a learner's exposure to actual language use, the
mechanisms of such exposure have only been studied in a few constructions in
isolation. This paper experiments with (i) the growth rate of the
constructicon, (ii) the convergence rate of grammars exposed to independent
registers, and (iii) the rate at which constructions are forgotten when they
have not been recently observed. These experiments show that the lexicon grows
more quickly than the grammar and that the growth rate of the grammar is not
dependent on the growth rate of the lexicon. At the same time,
register-specific grammars converge onto more similar constructions as the
amount of exposure increases. This means that the influence of specific
registers becomes less important as exposure increases. Finally, the rate at
which constructions are forgotten when they have not been recently observed
mirrors the growth rate of the constructicon. This paper thus presents a
computational model of usage-based grammar that includes both the emergence and
the unentrenchment of constructions.
- Abstract(参考訳): 本稿では,構築文法の出現における露出の役割について,計算実験を用いて考察する。
使用法に基づく文法は、学習者の実際の言語使用への露出に依存すると仮定されているが、そのような露出のメカニズムは、いくつかの独立した構成でのみ研究されている。
この論文と実験
(i)構成員の成長率
(ii)独立レジスタに露出した文法の収束率、
(iii)最近観測されていないとき、建築が忘れられる割合。
これらの実験により,語彙は文法よりも急速に成長し,文法の成長速度は語彙の成長速度に依存しないことが示された。
同時に、レジスタ固有の文法は露出量が増加するにつれてより類似した構成に収束する。
これは、露光が増加するにつれて特定のレジスタの影響がより重要になることを意味する。
最後に、最近観測されていないとき、建設が忘れられる速度は、建設物の成長率を反映している。
本稿では,構文の出現と拡張の両面を含む使用法に基づく文法の計算モデルを提案する。
関連論文リスト
- Towards a theory of how the structure of language is acquired by deep neural networks [6.363756171493383]
木のような生成モデルを用いて、自然言語で見られる階層構造の多くをキャプチャする。
トークンとトークンの相関は文法の隠れ変数の表現を構築するのに有効であることを示す。
トレーニングセットのサイズと効果的な相関範囲の関係は、我々の合成データセットを超えていると推測する。
論文 参考訳(メタデータ) (2024-05-28T17:01:22Z) - Enhancing Systematic Decompositional Natural Language Inference Using Informal Logic [51.967603572656266]
我々は,分解包含を注釈付けするための一貫した理論的なアプローチを導入する。
我々の新しいデータセットRDTEは、前回の分解エンターメントデータセットよりもかなり高い内部整合性(+9%)を持つことがわかった。
また,RDTE による知識蒸留によるエンテーメント分類器の訓練や,エンテーメントツリー推論エンジンへの導入により,精度と検証精度が向上することが確認された。
論文 参考訳(メタデータ) (2024-02-22T18:55:17Z) - On the effect of curriculum learning with developmental data for grammar
acquisition [4.4044968357361745]
この研究は、文法習得が言語の単純さによって引き起こされる程度と、データのソースモダリティ(音声対テキスト)について考察する。
特にBabyLMトレーニングコーパス(AO-Childes)とOpen Subtitles(Open Subtitles)の2つを対象とする。
論文 参考訳(メタデータ) (2023-10-31T20:05:30Z) - Simple Linguistic Inferences of Large Language Models (LLMs): Blind Spots and Blinds [59.71218039095155]
我々は,ほとんどの人間が自明に感じる単純な推論タスクにおいて,言語理解能力を評価する。
我々は, (i) 文法的に特定された含意, (ii) 不確実性のある明らかな副詞を持つ前提, (iii) 単調性含意を目標とする。
モデルはこれらの評価セットに対して中程度から低い性能を示す。
論文 参考訳(メタデータ) (2023-05-24T06:41:09Z) - Model Criticism for Long-Form Text Generation [113.13900836015122]
我々は,テキストの高レベル構造を評価するために,潜在空間におけるモデル批判という統計ツールを適用した。
我々は,コヒーレンス,コア,トピックスという,ハイレベルな談話の3つの代表的な側面について実験を行った。
トランスフォーマーベースの言語モデルでは、トピック構造をキャプチャできるが、構造コヒーレンスやモデリングコアスを維持するのが難しくなる。
論文 参考訳(メタデータ) (2022-10-16T04:35:58Z) - Learned Construction Grammars Converge Across Registers Given Increased
Exposure [0.8376091455761259]
本稿では,学習した構成文法が共有表現に収束するか否かに対する露出増加の影響を計測する。
実験は12言語での言語学習をシミュレートし、コーパスは3つのレジスタを表す。
その結果、露出が増加すると、すべての言語に文法が収束することがわかった。
論文 参考訳(メタデータ) (2021-10-12T00:45:42Z) - Dependency Induction Through the Lens of Visual Perception [81.91502968815746]
本稿では,単語の具体性を利用した教師なし文法帰納モデルと,構成的視覚に基づく構成的文法を共同学習する手法を提案する。
実験により,提案した拡張は,文法的サイズが小さい場合でも,現在最先端の視覚的接地モデルよりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-09-20T18:40:37Z) - Avoiding Inference Heuristics in Few-shot Prompt-based Finetuning [57.4036085386653]
文ペア分類タスクのプロンプトベースモデルでは,語彙重なりに基づく推論の一般的な落とし穴が依然として残っていることを示す。
そこで,プレトレーニングウェイトを保存する正規化を加えることは,この破壊的な微調整の傾向を緩和するのに有効であることを示す。
論文 参考訳(メタデータ) (2021-09-09T10:10:29Z) - Production vs Perception: The Role of Individuality in Usage-Based
Grammar Induction [0.0]
生産ベースと知覚ベースの文法誘導の区別は、文法と語彙の成長曲線に影響を与える。
3つの計算実験のセットは、生産ベース文法が全ての条件における知覚ベース文法と大きく異なることを示している。
論文 参考訳(メタデータ) (2021-04-19T03:38:47Z) - Evaluating Factuality in Generation with Dependency-level Entailment [57.5316011554622]
本稿では,依存弧のレベルで分解するエンテーメントの新たな定式化を提案する。
このデータに基づいて訓練された依存関係弧包含モデルにより,文レベルの手法よりもパラフレーズ化や要約における現実的不整合を識別できることが示されている。
論文 参考訳(メタデータ) (2020-10-12T06:43:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。