論文の概要: How trial-to-trial learning shapes mappings in the mental lexicon:
Modelling Lexical Decision with Linear Discriminative Learning
- arxiv url: http://arxiv.org/abs/2207.00430v1
- Date: Fri, 1 Jul 2022 13:49:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-04 17:19:38.096537
- Title: How trial-to-trial learning shapes mappings in the mental lexicon:
Modelling Lexical Decision with Linear Discriminative Learning
- Title(参考訳): 心的辞書における試行錯誤学習の地図化 : 線形弁別学習を用いた語彙決定のモデル化
- Authors: Maria Heitmeier, Yu-Ying Chuang and R. Harald Baayen
- Abstract要約: プライミングとアンチプライミングは、エラー駆動学習によってモデル化できる。
本研究は、語彙決定実験において、試行錯誤学習が検出できるかどうかを検討する。
- 参考スコア(独自算出の注目度): 0.90238471756546
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Priming and antipriming can be modelled with error-driven learning (Marsolek,
2008), by assuming that the learning of the prime influences processing of the
target stimulus. This implies that participants are continuously learning in
priming studies, and predicts that they are also learning in each trial of
other psycholinguistic experiments. This study investigates whether
trial-to-trial learning can be detected in lexical decision experiments. We
used the Discriminative Lexicon Model (DLM; Baayen et al., 2019), a model of
the mental lexicon with meaning representations from distributional semantics,
which models incremental learning with the Widrow-Hoff rule. We used data from
the British Lexicon Project (BLP; Keuleers et al., 2012) and simulated the
lexical decision experiment with the DLM on a trial-by-trial basis for each
subject individually. Then, reaction times for words and nonwords were
predicted with Generalised Additive Models, using measures derived from the DLM
simulations as predictors. Models were developed with the data of two subjects
and tested on all other subjects. We extracted measures from two simulations
for each subject (one with learning updates between trials and one without),
and used them as input to two GAMs. Learning-based models showed better model
fit than the non-learning ones for the majority of subjects. Our measures also
provided insights into lexical processing and enabled us to explore individual
differences with Linear Mixed Models. This demonstrates the potential of the
DLM to model behavioural data and leads to the conclusion that trial-to-trial
learning can indeed be detected in psycholinguistic experiments.
- Abstract(参考訳): プライミングとアンチプライミングは、主学習が目標刺激の処理に影響を及ぼすと仮定して、エラー駆動学習(Marsolek, 2008)でモデル化することができる。
これは、参加者がプライミング研究で継続的に学び、他の精神言語学的実験の試行ごとにも学習していると予測していることを意味する。
本研究は,治験から治験への学習が語彙決定実験で検出できるかどうかを検討する。
分布セマンティクスからの意味表現を持つメンタルレキシコンのモデルである判別レキシコンモデル(dlm, baayen et al., 2019)を用いて,widrow-hoffルールを用いたインクリメンタル学習をモデル化した。
我々は,British Lexicon Project (BLP; Keuleers et al., 2012) のデータを用いて,DLMによる語彙決定実験を,各被験者に対して個別に試行的にシミュレーションした。
そして,DLMシミュレーションから導出した指標を予測子として,単語と非単語の反応時間を一般化付加モデルを用いて予測した。
モデルは2つの被験者のデータを用いて開発され、他のすべての被験者でテストされた。
被験者毎に2つのシミュレーション(1つは試行錯誤を学習し,もう1つは無試行間更新)を抽出し,2つのGAMの入力として使用した。
学習ベースモデルは、ほとんどの被験者にとって非学習モデルよりも適している。
また,語彙処理の知見を提供し,線形混合モデルを用いた個人差の探索を可能にした。
これは、行動データをモデル化するDLMの可能性を示し、心言語実験で試行錯誤学習が実際に検出できるという結論に至る。
関連論文リスト
- CM-DQN: A Value-Based Deep Reinforcement Learning Model to Simulate Confirmation Bias [0.0]
本稿では,人間の意思決定過程をシミュレートするために,Deep Reinforcement Learning(CM-DQN)に新たなアルゴリズムを提案する。
我々は,Lunar Lander環境において,確認的,不確認的バイアス,非バイアスを用いて学習効果を観察する。
論文 参考訳(メタデータ) (2024-07-10T08:16:13Z) - Large Language Models are Biased Reinforcement Learners [0.0]
大規模言語モデル (LLM) は相対値バイアスの行動的シグネチャを示す。
計算的認知モデリングにより、LLMの挙動は単純なRLアルゴリズムによってよく記述されていることが明らかになった。
論文 参考訳(メタデータ) (2024-05-19T01:43:52Z) - CausalGym: Benchmarking causal interpretability methods on linguistic
tasks [52.61917615039112]
CausalGymを使って、モデル動作に因果的に影響を及ぼす解釈可能性手法のベンチマークを行う。
ピチアモデル (14M--6.9B) について検討し, 幅広い解釈可能性手法の因果効果について検討した。
DASは他の手法よりも優れており、2つの困難な言語現象の学習軌跡の研究に利用している。
論文 参考訳(メタデータ) (2024-02-19T21:35:56Z) - Uncertainty Quantification for In-Context Learning of Large Language Models [52.891205009620364]
大規模言語モデル(LLM)の画期的な能力として、文脈内学習が登場している。
両タイプの不確かさを定量化するための新しい定式化法とそれに対応する推定法を提案する。
提案手法は、プラグイン・アンド・プレイ方式でコンテキスト内学習の予測を理解するための教師なしの方法を提供する。
論文 参考訳(メタデータ) (2024-02-15T18:46:24Z) - Are You Sure? Challenging LLMs Leads to Performance Drops in The
FlipFlop Experiment [82.60594940370919]
大規模言語モデル(LLM)のマルチターン動作を研究するためのFlipFlop実験を提案する。
モデルが平均46%の時間で回答を反転させ、全てのモデルが最初の予測と最終予測の間に精度を低下させ、平均17%の低下(FlipFlop効果)を示す。
我々はオープンソースのLLMで微調整実験を行い、合成されたデータに対する微調整は、性能劣化を60%低減させることができるが、サイコファンティックな振る舞いを完全には解決できないことを発見した。
論文 参考訳(メタデータ) (2023-11-14T23:40:22Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - Sources of Hallucination by Large Language Models on Inference Tasks [16.644096408742325]
大規模言語モデル (LLM) は自然言語推論 (NLI) が可能なと主張している。
本研究は, 制御実験を用いて行動調査を行う複数のLLMファミリーに関する一連の行動学的研究について述べる。
論文 参考訳(メタデータ) (2023-05-23T22:24:44Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Interpretable Machine Learning Classifiers for Brain Tumour Survival
Prediction [0.45880283710344055]
我々は、新しい脳腫瘍データセットを用いて、2つの解釈可能なルールリストモデルを、脳腫瘍生存予測のための一般的な機械学習アプローチと比較する。
ルールリストアルゴリズムが臨床専門知識と整合した単純な意思決定リストを作成したことを実証する。
論文 参考訳(メタデータ) (2021-06-17T12:17:10Z) - Empowering Language Understanding with Counterfactual Reasoning [141.48592718583245]
本稿では,反現実的思考を模倣した反現実的推論モデルを提案する。
特に,各実例に対して代表的対実サンプルを生成する生成モジュールを考案し,その対実サンプルと実例サンプルを比較してモデル予測を振り返るレトロスペクティブモジュールを考案した。
論文 参考訳(メタデータ) (2021-06-06T06:36:52Z) - A framework for predicting, interpreting, and improving Learning
Outcomes [0.0]
本研究では,学生の観察的,行動的,受験的特徴に基づいて,テストスコアを予測するEmbibe Score Quotient Model(ESQ)を開発した。
ESQは、学生の将来的な採点可能性の予測や、個別の学習ナッジの提供に使用することができる。
論文 参考訳(メタデータ) (2020-10-06T11:22:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。