論文の概要: To model human linguistic prediction, make LLMs less superhuman
- arxiv url: http://arxiv.org/abs/2510.05141v1
- Date: Wed, 01 Oct 2025 21:53:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:07.848979
- Title: To model human linguistic prediction, make LLMs less superhuman
- Title(参考訳): 人間の言語予測をモデル化するために、LLMを超人的にする
- Authors: Byung-Doh Oh, Tal Linzen,
- Abstract要約: 近年,言語モデルによる次の単語の予測が向上するにつれて,人間の読解行動を予測する能力は低下している。
なぜなら、LLMは人よりずっと優れた単語を予測でき、読み出しの難易度を予測できるからです。
我々は、人間のような長期記憶と短期記憶を持つモデルの作成を提唱し、この目標を達成するためのいくつかの可能な方向性を概説する。
- 参考スコア(独自算出の注目度): 22.141352033537554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When people listen to or read a sentence, they actively make predictions about upcoming words: words that are less predictable are generally read more slowly than predictable ones. The success of large language models (LLMs), which, like humans, make predictions about upcoming words, has motivated exploring the use of these models as cognitive models of human linguistic prediction. Surprisingly, in the last few years, as language models have become better at predicting the next word, their ability to predict human reading behavior has declined. This is because LLMs are able to predict upcoming words much better than people can, leading them to predict lower processing difficulty in reading than observed in human experiments; in other words, mainstream LLMs are 'superhuman' as models of language comprehension. In this position paper, we argue that LLMs' superhumanness is primarily driven by two factors: compared to humans, LLMs have much stronger long-term memory for facts and training examples, and they have much better short-term memory for previous words in the text. We advocate for creating models that have human-like long-term and short-term memory, and outline some possible directions for achieving this goal. Finally, we argue that currently available human data is insufficient to measure progress towards this goal, and outline human experiments that can address this gap.
- Abstract(参考訳): 人々が文章を聴いたり読んだりすると、次の単語について積極的に予測する:予測しにくい単語は一般的に予測できる単語よりもゆっくり読む。
大型言語モデル(LLMs)の成功は、人間と同様に、今後の単語について予測するものであり、これらのモデルが人間の言語予測の認知モデルとして使われることを探求する動機となっている。
驚くべきことに、ここ数年で言語モデルが次の単語を予測できるようになり、人間の読書行動を予測する能力は低下している。
言い換えると、LLMは言語理解のモデルとして「超人」である。
本稿では, LLMの超人性は, 人間に比べて, 事実や訓練例に対する長期記憶がより強く, テキスト中の単語に対する短期記憶がより優れている,という2つの要因によって引き起こされていることを論じる。
我々は、人間のような長期記憶と短期記憶を持つモデルの作成を提唱し、この目標を達成するためのいくつかの可能な方向性を概説する。
最後に、現在利用可能な人間のデータは、この目標に向けての進捗を測るには不十分であり、このギャップに対処できる人間の実験の概要を述べる。
関連論文リスト
- On the Thinking-Language Modeling Gap in Large Language Models [68.83670974539108]
言語と思考のモデリングには大きなギャップがあることが示される。
本稿では,このギャップを実証し緩和するために,Language-of-Thoughts (LoT) と呼ばれる新しいプロンプト手法を提案する。
論文 参考訳(メタデータ) (2025-05-19T09:31:52Z) - Temperature-scaling surprisal estimates improve fit to human reading times -- but does it do so for the "right reasons"? [15.773775387121097]
大規模な言語モデルのキャリブレーションは,通常モデルサイズによって改善されることを示す。
温度スケーリングの確率は、読み取り時間に体系的に適合することがわかった。
論文 参考訳(メタデータ) (2023-11-15T19:34:06Z) - Humans and language models diverge when predicting repeating text [52.03471802608112]
我々は,人間とLMのパフォーマンスが分岐するシナリオを提示する。
人間とGPT-2 LMの予測はテキストスパンの最初のプレゼンテーションで強く一致しているが、メモリが役割を担い始めると、その性能は急速にバラバラになる。
このシナリオが,LMを人間の行動に近づける上で,今後の作業に拍車をかけることを期待しています。
論文 参考訳(メタデータ) (2023-10-10T08:24:28Z) - Where Would I Go Next? Large Language Models as Human Mobility
Predictors [21.100313868232995]
人間の移動データを解析するためのLLMの言語理解と推論能力を活用する新しい手法 LLM-Mob を提案する。
本手法の総合評価により,LLM-Mobは正確かつ解釈可能な予測を行うのに優れていることが明らかとなった。
論文 参考訳(メタデータ) (2023-08-29T10:24:23Z) - The Neuro-Symbolic Inverse Planning Engine (NIPE): Modeling
Probabilistic Social Inferences from Linguistic Inputs [50.32802502923367]
確率的目標推論領域における言語駆動の過程と社会的推論への影響について検討する。
本稿では,エージェントシナリオの言語入力から目標推定を行うニューロシンボリックモデルを提案する。
我々のモデルは人間の反応パターンと密に一致し、LLM単独の使用よりも人間の判断をより良く予測する。
論文 参考訳(メタデータ) (2023-06-25T19:38:01Z) - Multi-timescale Representation Learning in LSTM Language Models [69.98840820213937]
言語モデルは、非常に短いから非常に長いまでの時間スケールで単語間の統計的依存関係を捉えなければならない。
我々は、長期記憶言語モデルにおけるメモリゲーティング機構が、パワーローの減衰を捉えることができるかの理論を導出した。
実験の結果,自然言語で学習したLSTM言語モデルは,この理論分布を近似することがわかった。
論文 参考訳(メタデータ) (2020-09-27T02:13:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。