論文の概要: Deriving dynamical systems for language based on the Tolerance Principle
- arxiv url: http://arxiv.org/abs/2209.04261v1
- Date: Fri, 9 Sep 2022 11:49:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-12 12:41:42.354055
- Title: Deriving dynamical systems for language based on the Tolerance Principle
- Title(参考訳): Tolerance Principle に基づく言語力学系の導出
- Authors: Fernando C. Alves
- Abstract要約: 私は、獲得駆動フレームワーク内の言語に対する明示的な動的システムを導き出します。
私は、人口規模(有限対無限)や学習者にデータを提供する前世代の数など、様々な理論的パラメータについて検討する。
- 参考スコア(独自算出の注目度): 91.3755431537592
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this research note, I derive explicit dynamical systems for language
within an acquisition-driven framework (Niyogi \& Berwick, 1997; Niyogi, 2006)
assuming that children/learners follow the Tolerance Principle (Yang, 2016) to
determine whether a rule is productive during the process of language
acquisition. I consider different theoretical parameters such as population
size (finite vs. infinite) and the number of previous generations that provide
learners with data. Multiple simulations of the dynamics obtained here and
applications to diacrhonic language data are in preparation, so they are not
included in this first note.
- Abstract(参考訳): 本研究は,子どもが言語習得過程において規則が生産的かどうかを判断するための許容原則(yang,2016)に従うことを前提として,獲得駆動フレームワーク(niyogi \& berwick,1997,niyogi,2006)内の言語に対する明示的な動的システムを導出する。
私は、人口サイズ(有限対無限)や学習者にデータを提供する前世代の数といった、異なる理論的なパラメータを考える。
ここで得られた力学の複数のシミュレーションと音素言語データへの応用が準備されているので、最初のノートには含まれていない。
関連論文リスト
- Developmental Predictive Coding Model for Early Infancy Mono and Bilingual Vocal Continual Learning [69.8008228833895]
本稿では,連続学習機構を備えた小型生成ニューラルネットワークを提案する。
我々のモデルは解釈可能性を重視し,オンライン学習の利点を実証する。
論文 参考訳(メタデータ) (2024-12-23T10:23:47Z) - Predictability and Causality in Spanish and English Natural Language Generation [6.817247544942709]
本稿では,英語とスペイン語の因果関係と非因果関係を比較検討する。
この実験によると、スペイン語は非因果関係から英語よりも予測可能である。
これらの知見は、双方向トランスフォーマー言語モデルを用いたスペイン語におけるNLGのさらなる研究を支援する。
論文 参考訳(メタデータ) (2024-08-26T14:09:28Z) - Improving Temporal Generalization of Pre-trained Language Models with
Lexical Semantic Change [28.106524698188675]
近年の研究では、大規模なニューラルネットワークモデルが時間的一般化能力の低下に悩まされていることが明らかになっている。
本稿では,収束した言語モデルを学習後処理するための,単純かつ効果的な語彙レベルのマスキング手法を提案する。
論文 参考訳(メタデータ) (2022-10-31T08:12:41Z) - Dependency-based Mixture Language Models [53.152011258252315]
依存性に基づく混合言語モデルを紹介する。
より詳しくは、依存関係モデリングの新たな目的により、まずニューラルネットワークモデルを訓練する。
次に、前回の依存性モデリング確率分布と自己意図を混合することにより、次の確率を定式化する。
論文 参考訳(メタデータ) (2022-03-19T06:28:30Z) - Pre-Trained Language Models for Interactive Decision-Making [72.77825666035203]
目的と観測を埋め込みのシーケンスとして表現する模倣学習の枠組みを述べる。
このフレームワークは様々な環境にまたがって効果的な一般化を可能にすることを実証する。
新たなゴールや新しいシーンを含むテストタスクでは、言語モデルによる初期化ポリシーはタスク完了率を43.6%改善する。
論文 参考訳(メタデータ) (2022-02-03T18:55:52Z) - Factorized Neural Transducer for Efficient Language Model Adaptation [51.81097243306204]
空白および語彙予測を分解し,ニューラルトランスデューサの因子化モデルを提案する。
この因子化は、音声認識のためのトランスデューサにスタンドアロン言語モデルの改善を移すことが期待できる。
提案した因子化ニューラルトランスデューサは、言語モデル適応にドメイン外テキストデータを使用する場合、15%から20%のWER改善が得られることを示す。
論文 参考訳(メタデータ) (2021-09-27T15:04:00Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z) - Neural Variational Learning for Grounded Language Acquisition [14.567067583556714]
本稿では,言語が特定の定義された用語のカテゴリを含まない視覚的知覚に基礎を置いている学習システムを提案する。
この生成手法は,低リソース環境下での視覚的カテゴリを事前に指定することなく,言語接地において有望な結果を示すことを示す。
論文 参考訳(メタデータ) (2021-07-20T20:55:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。