論文の概要: How trial-to-trial learning shapes mappings in the mental lexicon:
Modelling Lexical Decision with Linear Discriminative Learning
- arxiv url: http://arxiv.org/abs/2207.00430v3
- Date: Mon, 4 Sep 2023 11:45:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 11:52:42.448407
- Title: How trial-to-trial learning shapes mappings in the mental lexicon:
Modelling Lexical Decision with Linear Discriminative Learning
- Title(参考訳): 心的辞書における試行錯誤学習の地図化 : 線形弁別学習を用いた語彙決定のモデル化
- Authors: Maria Heitmeier, Yu-Ying Chuang and R. Harald Baayen
- Abstract要約: 本研究では,未熟な語彙決定実験において,試行錯誤学習が検出できるかどうかを検討する。
我々は、分布意味論から表現する意味を持つ精神的語彙のモデルである差別的語彙モデル(DLM)を用いた。
我々の研究結果は、語彙的知識が継続的な変化の対象となる可能性を支持する。
- 参考スコア(独自算出の注目度): 0.4450536872346657
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Trial-to-trial effects have been found in a number of studies, indicating
that processing a stimulus influences responses in subsequent trials. A special
case are priming effects which have been modelled successfully with
error-driven learning (Marsolek, 2008), implying that participants are
continuously learning during experiments. This study investigates whether
trial-to-trial learning can be detected in an unprimed lexical decision
experiment. We used the Discriminative Lexicon Model (DLM; Baayen et al.,
2019), a model of the mental lexicon with meaning representations from
distributional semantics, which models error-driven incremental learning with
the Widrow-Hoff rule. We used data from the British Lexicon Project (BLP;
Keuleers et al., 2012) and simulated the lexical decision experiment with the
DLM on a trial-by-trial basis for each subject individually. Then, reaction
times were predicted with Generalised Additive Models (GAMs), using measures
derived from the DLM simulations as predictors. We extracted measures from two
simulations per subject (one with learning updates between trials and one
without), and used them as input to two GAMs. Learning-based models showed
better model fit than the non-learning ones for the majority of subjects. Our
measures also provide insights into lexical processing and individual
differences. This demonstrates the potential of the DLM to model behavioural
data and leads to the conclusion that trial-to-trial learning can indeed be
detected in unprimed lexical decision. Our results support the possibility that
our lexical knowledge is subject to continuous changes.
- Abstract(参考訳): 多くの研究で、刺激の処理がその後の臨床試験の反応に影響を与えることが示されている。
特別の場合として、誤り駆動学習をうまくモデル化したプライミング効果があり(Marsolek, 2008)、実験中に参加者が継続的に学習していることを示している。
本研究では,未熟な語彙決定実験において,試行錯誤学習が検出できるかどうかを検討する。
分布セマンティクスからの意味表現を持つメンタルレキシコンのモデルである判別レキシコンモデル(dlm, baayen et al., 2019)を用いて,widrow-hoffルールによる誤り駆動インクリメンタル学習をモデル化した。
我々は,British Lexicon Project (BLP; Keuleers et al., 2012) のデータを用いて,DLMによる語彙決定実験を,各被験者に対して個別に試行的にシミュレーションした。
次に, DLMシミュレーションから導出した反応時間を予測器としてGAM(Generalized Additive Models)を用いて予測した。
被験者1人あたりの2つのシミュレーション(試行錯誤による学習と学習の更新を伴うもの)から測定値を抽出し、2つのガンの入力として使用した。
学習ベースモデルは、ほとんどの被験者にとって非学習モデルよりも適している。
また、語彙処理と個人差に関する洞察も提供する。
これはdlmが行動データをモデル化する可能性を示し、試行錯誤学習が非素直な語彙決定で実際に検出できるという結論を導く。
我々の研究結果は、語彙的知識が継続的な変化の対象となる可能性を支持する。
関連論文リスト
- CM-DQN: A Value-Based Deep Reinforcement Learning Model to Simulate Confirmation Bias [0.0]
本稿では,人間の意思決定過程をシミュレートするために,Deep Reinforcement Learning(CM-DQN)に新たなアルゴリズムを提案する。
我々は,Lunar Lander環境において,確認的,不確認的バイアス,非バイアスを用いて学習効果を観察する。
論文 参考訳(メタデータ) (2024-07-10T08:16:13Z) - Large Language Models are Biased Reinforcement Learners [0.0]
大規模言語モデル (LLM) は相対値バイアスの行動的シグネチャを示す。
計算的認知モデリングにより、LLMの挙動は単純なRLアルゴリズムによってよく記述されていることが明らかになった。
論文 参考訳(メタデータ) (2024-05-19T01:43:52Z) - CausalGym: Benchmarking causal interpretability methods on linguistic
tasks [52.61917615039112]
CausalGymを使って、モデル動作に因果的に影響を及ぼす解釈可能性手法のベンチマークを行う。
ピチアモデル (14M--6.9B) について検討し, 幅広い解釈可能性手法の因果効果について検討した。
DASは他の手法よりも優れており、2つの困難な言語現象の学習軌跡の研究に利用している。
論文 参考訳(メタデータ) (2024-02-19T21:35:56Z) - Uncertainty Quantification for In-Context Learning of Large Language Models [52.891205009620364]
大規模言語モデル(LLM)の画期的な能力として、文脈内学習が登場している。
両タイプの不確かさを定量化するための新しい定式化法とそれに対応する推定法を提案する。
提案手法は、プラグイン・アンド・プレイ方式でコンテキスト内学習の予測を理解するための教師なしの方法を提供する。
論文 参考訳(メタデータ) (2024-02-15T18:46:24Z) - Are You Sure? Challenging LLMs Leads to Performance Drops in The
FlipFlop Experiment [82.60594940370919]
大規模言語モデル(LLM)のマルチターン動作を研究するためのFlipFlop実験を提案する。
モデルが平均46%の時間で回答を反転させ、全てのモデルが最初の予測と最終予測の間に精度を低下させ、平均17%の低下(FlipFlop効果)を示す。
我々はオープンソースのLLMで微調整実験を行い、合成されたデータに対する微調整は、性能劣化を60%低減させることができるが、サイコファンティックな振る舞いを完全には解決できないことを発見した。
論文 参考訳(メタデータ) (2023-11-14T23:40:22Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - Sources of Hallucination by Large Language Models on Inference Tasks [16.644096408742325]
大規模言語モデル (LLM) は自然言語推論 (NLI) が可能なと主張している。
本研究は, 制御実験を用いて行動調査を行う複数のLLMファミリーに関する一連の行動学的研究について述べる。
論文 参考訳(メタデータ) (2023-05-23T22:24:44Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Interpretable Machine Learning Classifiers for Brain Tumour Survival
Prediction [0.45880283710344055]
我々は、新しい脳腫瘍データセットを用いて、2つの解釈可能なルールリストモデルを、脳腫瘍生存予測のための一般的な機械学習アプローチと比較する。
ルールリストアルゴリズムが臨床専門知識と整合した単純な意思決定リストを作成したことを実証する。
論文 参考訳(メタデータ) (2021-06-17T12:17:10Z) - Empowering Language Understanding with Counterfactual Reasoning [141.48592718583245]
本稿では,反現実的思考を模倣した反現実的推論モデルを提案する。
特に,各実例に対して代表的対実サンプルを生成する生成モジュールを考案し,その対実サンプルと実例サンプルを比較してモデル予測を振り返るレトロスペクティブモジュールを考案した。
論文 参考訳(メタデータ) (2021-06-06T06:36:52Z) - A framework for predicting, interpreting, and improving Learning
Outcomes [0.0]
本研究では,学生の観察的,行動的,受験的特徴に基づいて,テストスコアを予測するEmbibe Score Quotient Model(ESQ)を開発した。
ESQは、学生の将来的な採点可能性の予測や、個別の学習ナッジの提供に使用することができる。
論文 参考訳(メタデータ) (2020-10-06T11:22:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。