論文の概要: Adaptive Forgetting Curves for Spaced Repetition Language Learning
- arxiv url: http://arxiv.org/abs/2004.11327v1
- Date: Thu, 23 Apr 2020 17:22:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 09:03:40.665376
- Title: Adaptive Forgetting Curves for Spaced Repetition Language Learning
- Title(参考訳): 空間的繰り返し言語学習のための適応的予測曲線
- Authors: Ahmed Zaidi, Andrew Caines, Russell Moore, Paula Buttery and Andrew
Rice
- Abstract要約: 心理学的特徴と言語学的特徴を取り入れた様々な忘れ曲線モデルについて検討する。
我々はこれらのモデルを用いて、第二言語としての英語学習者による単語リコールの確率を予測する。
単語の複雑さは、ニューラルネットワークモデルによってうまく学習される可能性のある、非常に有意義な特徴であることがわかった。
- 参考スコア(独自算出の注目度): 6.396596455749813
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The forgetting curve has been extensively explored by psychologists,
educationalists and cognitive scientists alike. In the context of Intelligent
Tutoring Systems, modelling the forgetting curve for each user and knowledge
component (e.g. vocabulary word) should enable us to develop optimal revision
strategies that counteract memory decay and ensure long-term retention. In this
study we explore a variety of forgetting curve models incorporating
psychological and linguistic features, and we use these models to predict the
probability of word recall by learners of English as a second language. We
evaluate the impact of the models and their features using data from an online
vocabulary teaching platform and find that word complexity is a highly
informative feature which may be successfully learned by a neural network
model.
- Abstract(参考訳): 忘れられる曲線は心理学者、教育者、認知科学者にも広く研究されてきた。
インテリジェントな学習システムでは、各ユーザと知識コンポーネント(語彙単語など)に対する忘れられた曲線をモデル化することで、メモリの減衰を防止し、長期保持を確実にする最適なリビジョン戦略を開発することができる。
本研究では,心理学的・言語的特徴を取り入れた様々な学習曲線モデルについて検討し,これらのモデルを用いて第二言語としての英語学習者による単語記憶の確率を予測する。
我々は、オンライン語彙学習プラットフォームからのデータを用いて、モデルとその機能の影響を評価し、単語の複雑さがニューラルネットワークモデルでうまく学習できる高い情報的特徴であることを発見した。
関連論文リスト
- Trustworthy Alignment of Retrieval-Augmented Large Language Models via Reinforcement Learning [84.94709351266557]
検索強化に関して,言語モデルの信頼性に焦点をあてる。
検索強化言語モデルには,文脈的知識とパラメトリック的知識の両方に応じて応答を供給できる本質的な能力があると考えられる。
言語モデルと人間の嗜好の整合性に着想を得て,検索強化言語モデルを外部証拠にのみ依存する状況に整合させるための第一歩を踏み出した。
論文 参考訳(メタデータ) (2024-10-22T09:25:21Z) - Reverse-Engineering the Reader [43.26660964074272]
本稿では,線形回帰器のパラメータを暗黙的に最適化するために,言語モデルを微調整する新しいアライメント手法を提案する。
単語をテストケースとして使用し、複数のモデルサイズとデータセットにわたる手法を評価する。
ダウンストリームNLPタスクにおける心理測定パワーとモデルの性能の逆関係と、ホールドアウトテストデータにおけるその難易度を見出した。
論文 参考訳(メタデータ) (2024-10-16T23:05:01Z) - Beyond the Labels: Unveiling Text-Dependency in Paralinguistic Speech Recognition Datasets [0.5999777817331317]
本稿では、機械学習モデルが真にパラ言語的特徴を特定することを学んでいるという前提を批判的に評価する。
これらのデータセットの語彙的重複を調べ、機械学習モデルの性能をテストすることにより、特性ラベル付けにおける重要なテキスト依存性を明らかにする。
論文 参考訳(メタデータ) (2024-03-12T15:54:32Z) - Retentive or Forgetful? Diving into the Knowledge Memorizing Mechanism
of Language Models [49.39276272693035]
大規模事前学習型言語モデルは、顕著な記憶能力を示している。
プレトレーニングのないバニラニューラルネットワークは、破滅的な忘れ物問題に悩まされていることが長年観察されてきた。
1)バニラ言語モデルは忘れがちである; 2)事前学習は暗黙の言語モデルにつながる; 3)知識の妥当性と多様化は記憶形成に大きな影響を及ぼす。
論文 参考訳(メタデータ) (2023-05-16T03:50:38Z) - Towards Scalable Adaptive Learning with Graph Neural Networks and
Reinforcement Learning [0.0]
学習経路のパーソナライズに関する問題に対して,フレキシブルでスケーラブルなアプローチを導入する。
我々のモデルはグラフニューラルネットワークに基づく逐次レコメンデーションシステムである。
以上の結果から,小規模データ体制における適切なレコメンデーションを学習できることが示唆された。
論文 参考訳(メタデータ) (2023-05-10T18:16:04Z) - Offline RL for Natural Language Generation with Implicit Language Q
Learning [87.76695816348027]
ユーザ指定タスクの完了に関して、大きな言語モデルは矛盾する可能性がある。
本稿では,RLのフレキシブル・ユーティリティ・フレームワークと教師あり学習能力を組み合わせた新しいRL手法を提案する。
ILQLの実証的な検証に加えて、オフラインRLが自然言語生成設定で有用となるような、詳細な経験的分析状況も提示する。
論文 参考訳(メタデータ) (2022-06-05T18:38:42Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Dependency-based Mixture Language Models [53.152011258252315]
依存性に基づく混合言語モデルを紹介する。
より詳しくは、依存関係モデリングの新たな目的により、まずニューラルネットワークモデルを訓練する。
次に、前回の依存性モデリング確率分布と自己意図を混合することにより、次の確率を定式化する。
論文 参考訳(メタデータ) (2022-03-19T06:28:30Z) - VidLanKD: Improving Language Understanding via Video-Distilled Knowledge
Transfer [76.3906723777229]
言語理解を改善するためのビデオ言語知識蒸留法VidLanKDを提案する。
我々は、ビデオテキストデータセット上でマルチモーダル教師モデルを訓練し、その知識をテキストデータセットを用いて学生言語モデルに伝達する。
我々の実験では、VidLanKDはテキストのみの言語モデルや発声モデルよりも一貫した改善を実現している。
論文 参考訳(メタデータ) (2021-07-06T15:41:32Z) - A Visuospatial Dataset for Naturalistic Verb Learning [18.654373173232205]
基礎言語モデルのトレーニングと評価のための新しいデータセットを導入する。
我々のデータはバーチャルリアリティー環境で収集され、言語データの品質をエミュレートするように設計されている。
収集したデータを用いて、動詞学習のための複数の分布意味論モデルを比較する。
論文 参考訳(メタデータ) (2020-10-28T20:47:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。