論文の概要: Reanalyzing L2 Preposition Learning with Bayesian Mixed Effects and a
Pretrained Language Model
- arxiv url: http://arxiv.org/abs/2302.08150v2
- Date: Tue, 23 May 2023 08:00:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-05-25 00:12:34.195050
- Title: Reanalyzing L2 Preposition Learning with Bayesian Mixed Effects and a
Pretrained Language Model
- Title(参考訳): ベイズ混合効果と事前学習言語モデルを用いたl2前置学習の再検討
- Authors: Jakob Prange and Man Ho Ivy Wong
- Abstract要約: ベイジアンモデルとニューラルモデルの両方を用いて、中国語学習者の英単語に対する理解度を測定する2つのテストに対して、中国語学習者の反応のデータセットを識別する。
その結果, 学生の能力, 課題タイプ, 刺激文間の重要な相互作用が新たに明らかになった。
- 参考スコア(独自算出の注目度): 0.9374453871700481
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We use both Bayesian and neural models to dissect a data set of Chinese
learners' pre- and post-interventional responses to two tests measuring their
understanding of English prepositions. The results mostly replicate previous
findings from frequentist analyses and newly reveal crucial interactions
between student ability, task type, and stimulus sentence. Given the sparsity
of the data as well as high diversity among learners, the Bayesian method
proves most useful; but we also see potential in using language model
probabilities as predictors of grammaticality and learnability.
- Abstract(参考訳): ベイジアンモデルとニューラルモデルの両方を用いて,英語前置詞の理解度を測定する2つのテストに対して,中国語学習者の介入前および介入後反応のデータセットを解析した。
その結果, 学生の能力, 課題タイプ, 刺激文間の重要な相互作用が新たに明らかになった。
ベイジアン法は, 学習者間でのデータのばらつきや多様性が高いことから, 言語モデルの確率を文法的・学習可能性の予測因子として用いる可能性も高い。
関連論文リスト
- Evaluating Discourse Cohesion in Pre-trained Language Models [42.63411207004852]
本稿では,事前学習した言語モデルの凝集度を評価するテストスイートを提案する。
テストスイートは、隣接文と非隣接文との間に複数の凝集現象を含む。
論文 参考訳(メタデータ) (2025-03-08T09:19:53Z) - The Emergence of Grammar through Reinforcement Learning [5.599852485003601]
構文的・意味的構成の文法体系の進化は、強化学習理論の新たな応用によってモデル化される。
私たちは、与えられたコンテキストで表現できる異なるメッセージに対する確率分布をモデル内に含んでいます。
提案された学習と生産のアルゴリズムは、言語学習を、メッセージの確率から得られる各ステップの利点など、一連の単純なステップに分解する。
論文 参考訳(メタデータ) (2025-03-03T15:10:46Z) - Developmental Predictive Coding Model for Early Infancy Mono and Bilingual Vocal Continual Learning [69.8008228833895]
本稿では,連続学習機構を備えた小型生成ニューラルネットワークを提案する。
我々のモデルは解釈可能性を重視し,オンライン学習の利点を実証する。
論文 参考訳(メタデータ) (2024-12-23T10:23:47Z) - Can a Neural Model Guide Fieldwork? A Case Study on Morphological Inflection [3.48094693551887]
言語学のフィールドワークは、言語の文書化と保存において重要な要素である。
本稿では,言語学者をフィールドワーク中に指導し,言語学者と話者の相互作用のダイナミクスを説明する新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-09-22T23:40:03Z) - KnowledgeVIS: Interpreting Language Models by Comparing
Fill-in-the-Blank Prompts [12.131691892960502]
本稿では,言語モデルを解釈するためのヒューマン・イン・ザ・ループ視覚分析システムであるKnowledgeVisを紹介する。
文間の予測を比較することで、KnowledgeVisは、訓練中に学習した言語モデルと自然言語タスクを直感的に結びつける学習された関連性を明らかにする。
論文 参考訳(メタデータ) (2024-03-07T18:56:31Z) - Lifelong Learning Natural Language Processing Approach for Multilingual
Data Classification [1.3999481573773074]
複数の言語で偽ニュースを検知できる生涯学習型アプローチを提案する。
解析された言語間で得られた知識を一般化するモデルの能力も観察された。
論文 参考訳(メタデータ) (2022-05-25T10:34:04Z) - Dependency-based Mixture Language Models [53.152011258252315]
依存性に基づく混合言語モデルを紹介する。
より詳しくは、依存関係モデリングの新たな目的により、まずニューラルネットワークモデルを訓練する。
次に、前回の依存性モデリング確率分布と自己意図を混合することにより、次の確率を定式化する。
論文 参考訳(メタデータ) (2022-03-19T06:28:30Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - From Good to Best: Two-Stage Training for Cross-lingual Machine Reading
Comprehension [51.953428342923885]
モデル性能を向上させるための2段階のアプローチを開発する。
我々は、トップk予測が正確な答えを含む確率を最大化するために、ハードラーニング(HL)アルゴリズムを設計する。
第2段階では, 正解と他の候補との微妙な違いを学習するために, 解答を意識したコントラスト学習機構が開発された。
論文 参考訳(メタデータ) (2021-12-09T07:31:15Z) - On the Lack of Robust Interpretability of Neural Text Classifiers [14.685352584216757]
本研究では,事前学習したトランスフォーマーエンコーダをベースとしたニューラルテキスト分類器の解釈の堅牢性を評価する。
どちらのテストも、期待された行動から驚くほど逸脱しており、実践者が解釈から引き出す可能性のある洞察の程度について疑問を呈している。
論文 参考訳(メタデータ) (2021-06-08T18:31:02Z) - Active Learning for Sequence Tagging with Deep Pre-trained Models and
Bayesian Uncertainty Estimates [52.164757178369804]
自然言語処理のためのトランスファーラーニングとアクティブラーニングの最近の進歩は、必要なアノテーション予算を大幅に削減する可能性を開く。
我々は,様々なベイズ不確実性推定手法とモンテカルロドロップアウトオプションの実験的研究を,アクティブ学習フレームワークで実施する。
また, 能動学習中にインスタンスを取得するためには, 完全サイズのトランスフォーマーを蒸留版に置き換えることにより, 計算性能が向上することを示した。
論文 参考訳(メタデータ) (2021-01-20T13:59:25Z) - Syntactic Structure Distillation Pretraining For Bidirectional Encoders [49.483357228441434]
本稿では,BERTプレトレーニングに構文バイアスを注入するための知識蒸留手法を提案する。
我々は,構文的 LM から単語の周辺分布を抽出する。
本研究は,大量のデータを利用する表現学習者においても,構文バイアスの利点を示すものである。
論文 参考訳(メタデータ) (2020-05-27T16:44:01Z) - Data Augmentation for Spoken Language Understanding via Pretrained
Language Models [113.56329266325902]
音声言語理解(SLU)モデルの訓練は、しばしばデータ不足の問題に直面している。
我々は,事前学習言語モデルを用いたデータ拡張手法を提案し,生成した発話の変動性と精度を向上した。
論文 参考訳(メタデータ) (2020-04-29T04:07:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。