論文の概要: An experimental and computational study of an Estonian single-person word naming
- arxiv url: http://arxiv.org/abs/2509.03143v1
- Date: Wed, 03 Sep 2025 08:53:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.469402
- Title: An experimental and computational study of an Estonian single-person word naming
- Title(参考訳): エストニアの1人称単語命名の実験的および計算的研究
- Authors: Kaidi Lõo, Arvi Tavast, Maria Heitmeier, Harald Baayen,
- Abstract要約: 本研究ではエストニアにおける語彙処理について検討する。
5つの応答変数(第1固定期間、全固定期間、固定回数、単語命名待ち時間、音声単語持続時間)を解析する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study investigates lexical processing in Estonian. A large-scale single-subject experiment is reported that combines the word naming task with eye-tracking. Five response variables (first fixation duration, total fixation duration, number of fixations, word naming latency, and spoken word duration) are analyzed with the generalized additive model. Of central interest is the question of whether measures for lexical processing generated by a computational model of the mental lexicon (the Discriminative Lexicon Model, DLM) are predictive for these response variables, and how they compare to classical predictors such as word frequency, neighborhood size, and inflectional paradigm size. Computational models were implemented both with linear and deep mappings. Central findings are, first, that DLM-based measures are powerful predictors for lexical processing, second, that DLM-measures using deep learning are not necessarily more precise predictors of lexical processing than DLM-measures using linear mappings, third, that classical predictors tend to provide somewhat more precise fits compared to DLM-based predictors (except for total fixation duration, where the two provide equivalent goodness of fit), and fourth, that in the naming task lexical variables are not predictive for first fixation duration and the total number of fixations. As the DLM works with mappings from form to meaning, the predictivity of DLM-based measures for total fixation duration, naming latencies, and spoken word duration indicates that meaning is heavily involved in the present word naming task.
- Abstract(参考訳): 本研究ではエストニアにおける語彙処理について検討する。
単語命名タスクと視線追跡を組み合わせた大規模単目的実験が報告されている。
5つの応答変数(第1固定時間、全固定時間、固定数、単語命名待ち時間、音声単語持続時間)を一般化加法モデルを用いて解析する。
中心的な関心事は、メンタルレキシコンの計算モデル(差別的レキシコンモデル、DLM)によって生成される語彙処理の尺度がこれらの応答変数に対して予測可能かどうか、また、単語頻度、近傍サイズ、屈折パラダイムサイズといった古典的な予測子とどのように比較されるかである。
計算モデルは線形写像と深度写像の両方で実装された。
第一に、DLMに基づく測度は語彙処理の強力な予測器であり、第二に、ディープラーニングを用いたDLM測度は、線形写像を用いたDLM測度よりも必ずしも正確な語彙処理の予測器ではない、第三に、古典的予測器は、DLMに基づく予測器よりも幾らか正確に適合する傾向にあり、第二に、命名タスク語彙変数は、第一の固定期間と全固定数に対して予測的ではない、ということである。
DLMは形式から意味へのマッピングを扱うため、DLMに基づく全固定時間、命名待ち時間、発声単語持続時間の予測は、現在の単語命名タスクに意味が深く関わっていることを示している。
関連論文リスト
- An Exploratory Analysis on the Explanatory Potential of Embedding-Based Measures of Semantic Transparency for Malay Word Recognition [0.0]
セマンティック透明性の埋め込みに基づく尺度について検討する。
本研究は,これらの指標が語彙決定遅延の有意な予測因子であるかどうかを考察する。
いずれの尺度も,単語頻度,単語長,形態的家族サイズを考慮し,決定遅延を予測した。
論文 参考訳(メタデータ) (2025-05-09T11:57:10Z) - An Evaluation of Standard Statistical Models and LLMs on Time Series Forecasting [16.583730806230644]
本研究では,大言語モデルが時系列予測の文脈で直面する重要な課題を明らかにする。
実験結果から、大規模な言語モデルは特定のデータセットのゼロショット予測において良好に機能するが、様々な時系列データや従来の信号に直面すると、予測精度は顕著に低下することが示された。
論文 参考訳(メタデータ) (2024-08-09T05:13:03Z) - Generalization v.s. Memorization: Tracing Language Models' Capabilities Back to Pretraining Data [76.90128359866462]
本稿では,出力確率と事前学習データ頻度の相関を計測する,記憶化,分布記憶化という拡張概念を導入する。
本研究は, より単純で知識集約的なタスクにおいて, 記憶がより大きな役割を担い, 一般化が, より困難で推論に基づくタスクの鍵であることを示す。
論文 参考訳(メタデータ) (2024-07-20T21:24:40Z) - Joint Prediction Regions for time-series models [0.0]
IIDデータの場合、JPR(Joint Prediction Region)の計算は容易である。
このプロジェクトは、JPRを構築するWolfとWunderliのメソッドを実装し、他のメソッドと比較することを目的としている。
論文 参考訳(メタデータ) (2024-05-14T02:38:49Z) - Analyzing the Role of Semantic Representations in the Era of Large Language Models [104.18157036880287]
大規模言語モデル(LLM)の時代における意味表現の役割について検討する。
本稿では, AMRCoT と呼ばれる AMR-driven chain-of- Thought prompting 法を提案する。
AMRのどの入力例が役に立つかは予測できないが,複数単語の表現でエラーが発生する傾向にある。
論文 参考訳(メタデータ) (2024-05-02T17:32:59Z) - A Mechanistic Interpretation of Arithmetic Reasoning in Language Models
using Causal Mediation Analysis [128.0532113800092]
算数問題に対するトランスフォーマーに基づくLMの機械的解釈を提案する。
これにより、算術に関連する情報がLMによってどのように処理されるかについての洞察が得られる。
論文 参考訳(メタデータ) (2023-05-24T11:43:47Z) - Did the Cat Drink the Coffee? Challenging Transformers with Generalized
Event Knowledge [59.22170796793179]
Transformers Language Models (TLMs) を数学的適合のテクトダイナミックな評価のためのベンチマークで検証した。
以上の結果から, TLM は SDM に匹敵する性能が得られることが示された。
しかし、さらなる分析は、TLMがイベント知識の重要な側面を捉えていないことを一貫して示唆している。
論文 参考訳(メタデータ) (2021-07-22T20:52:26Z) - Counterfactual Maximum Likelihood Estimation for Training Deep Networks [83.44219640437657]
深層学習モデルは、予測的手がかりとして学習すべきでない急激な相関を学習する傾向がある。
本研究では,観測可能な共同設立者による相関関係の緩和を目的とした因果関係に基づくトレーニングフレームワークを提案する。
自然言語推論(NLI)と画像キャプションという2つの実世界の課題について実験を行った。
論文 参考訳(メタデータ) (2021-06-07T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。