論文の概要: Left-right asymmetry in predicting brain activity from LLMs' representations emerges with their formal linguistic competence
- arxiv url: http://arxiv.org/abs/2602.12811v1
- Date: Fri, 13 Feb 2026 10:46:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.926103
- Title: Left-right asymmetry in predicting brain activity from LLMs' representations emerges with their formal linguistic competence
- Title(参考訳): LLMの表現から脳活動を予測する左右非対称性は、その形式的言語能力によって出現する
- Authors: Laurent Bonnasse-Gahot, Christophe Pallier,
- Abstract要約: いくつかのベンチマークにおいて、脳スコアにおける左右非対称性の進化と性能について検討した。
我々は、非対称性が大きな言語モデルの形式的言語能力と共存することを観察する。
脳の予測性における左右非対称性は,形式言語能力の進歩と一致している。
- 参考スコア(独自算出の注目度): 5.284168468573797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When humans and large language models (LLMs) process the same text, activations in the LLMs correlate with brain activity measured, e.g., with functional magnetic resonance imaging (fMRI). Moreover, it has been shown that, as the training of an LLM progresses, the performance in predicting brain activity from its internal activations improves more in the left hemisphere than in the right one. The aim of the present work is to understand which kind of competence acquired by the LLMs underlies the emergence of this left-right asymmetry. Using the OLMo-2 7B language model at various training checkpoints and fMRI data from English participants, we compare the evolution of the left-right asymmetry in brain scores alongside performance on several benchmarks. We observe that the asymmetry co-emerges with the formal linguistic abilities of the LLM. These abilities are demonstrated in two ways: by the model's capacity to assign a higher probability to an acceptable sentence than to a grammatically unacceptable one within a minimal contrasting pair, or its ability to produce well-formed text. On the opposite, the left-right asymmetry does not correlate with the performance on arithmetic or Dyck language tasks; nor with text-based tasks involving world knowledge and reasoning. We generalize these results to another family of LLMs (Pythia) and another language, namely French. Our observations indicate that the left-right asymmetry in brain predictivity matches the progress in formal linguistic competence (knowledge of linguistic patterns).
- Abstract(参考訳): 人間と大型言語モデル(LLM)が同じテキストを処理すると、LLMの活性化は脳活動、例えば機能的磁気共鳴画像(fMRI)と相関する。
さらに、LSMの訓練が進むにつれて、脳の活動を予測する能力は右脳よりも左半球で向上することが示されている。
本研究の目的は、LLMが獲得したコンピテンスの種類が、この左右非対称性の出現の根底にあるかを理解することである。
様々なトレーニングチェックポイントにおけるOLMo-2 7B言語モデルと、英語参加者のfMRIデータを用いて、脳スコアの左右非対称性の進化と、いくつかのベンチマークのパフォーマンスを比較した。
我々は,非対称性がLLMの形式的言語能力と共存することが観察された。
これらの能力は2つの方法で示される: モデルが最小のコントラストペア内で文法的に受け入れられない文よりも高い確率を許容される文に割り当てる能力、あるいは、十分に整形されたテキストを生成する能力。
反対に、左右の非対称性は算術やダイク語のタスクのパフォーマンスと相関せず、世界知識や推論を含むテキストベースのタスクとも相関しない。
我々はこれらの結果を、LLM(Pythia)と他の言語、すなわちフランス語の別のファミリーに一般化する。
脳の予測性における左右非対称性は、形式的言語能力(言語パターンの知識)の進歩と一致している。
関連論文リスト
- Large Language Models as Neurolinguistic Subjects: Discrepancy between Performance and Competence [49.60849499134362]
本研究では,大言語モデル(LLM)の記号化(形式)および記号化(意味)に関する言語的理解について検討する。
ミニマルペアと診断プローブを組み合わせてモデル層間のアクティベーションパターンを解析する新しい手法を用いて,ニューロ言語学的アプローチを提案する。
その結果,(1)心理言語学的・神経言語学的手法では,言語能力と能力が異なっていること,(2)直接確率測定では言語能力が正確に評価されないこと,(3)指導のチューニングでは能力が大きく変化しないが,性能は向上しないことがわかった。
論文 参考訳(メタデータ) (2024-11-12T04:16:44Z) - The Strong Pull of Prior Knowledge in Large Language Models and Its Impact on Emotion Recognition [74.04775677110179]
In-context Learning (ICL) は、Large Language Models (LLM) を用いた自然言語処理のための強力なパラダイムとして登場した。
LLMには、感情認識において強いが矛盾する先行性があり、その予測に影響を及ぼすことが示される。
以上の結果から,ICLをより大きなLCMで事前学習領域外の情動中心タスクに使用する場合,注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-25T19:07:32Z) - Do Large Language Models Mirror Cognitive Language Processing? [43.68923267228057]
大規模言語モデル(LLM)は、テキスト理解と論理的推論において顕著な能力を示した。
脳認知処理信号は、典型的には人間の言語処理を研究するために使用される。
論文 参考訳(メタデータ) (2024-02-28T03:38:20Z) - Divergences between Language Models and Human Brains [59.100552839650774]
我々は,人間と機械語処理の相違点を体系的に探求する。
我々は、LMがうまく捉えられない2つの領域、社会的/感情的知性と身体的常識を識別する。
以上の結果から,これらの領域における微調整LMは,ヒト脳反応との整合性を向上させることが示唆された。
論文 参考訳(メタデータ) (2023-11-15T19:02:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。