論文の概要: Neural Correlates of Language Models Are Specific to Human Language
- arxiv url: http://arxiv.org/abs/2510.03156v1
- Date: Fri, 03 Oct 2025 16:28:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.486073
- Title: Neural Correlates of Language Models Are Specific to Human Language
- Title(参考訳): 人間の言語に特有な言語モデルのニューラル相関
- Authors: Iñigo Parra,
- Abstract要約: 本研究は, 過去の結果がいくつかの懸念事項に対して堅牢であるかどうかを検証した。
結果は,従来の研究結果の確認と強化に寄与し,最先端の大規模言語モデルの生物学的妥当性と解釈可能性に関する議論に寄与する。
- 参考スコア(独自算出の注目度): 0.5076419064097734
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Previous work has shown correlations between the hidden states of large language models and fMRI brain responses, on language tasks. These correlations have been taken as evidence of the representational similarity of these models and brain states. This study tests whether these previous results are robust to several possible concerns. Specifically this study shows: (i) that the previous results are still found after dimensionality reduction, and thus are not attributable to the curse of dimensionality; (ii) that previous results are confirmed when using new measures of similarity; (iii) that correlations between brain representations and those from models are specific to models trained on human language; and (iv) that the results are dependent on the presence of positional encoding in the models. These results confirm and strengthen the results of previous research and contribute to the debate on the biological plausibility and interpretability of state-of-the-art large language models.
- Abstract(参考訳): これまでの研究では、大きな言語モデルの隠れ状態とfMRI脳反応の相関が言語タスクで示されていた。
これらの相関関係は、これらのモデルと脳の状態の表現的類似性の証拠として捉えられている。
本研究は,これらの実験結果がいくつかの懸念事項に対して堅牢であるかどうかを検証した。
特にこの研究は
一 上記の結果が、次元減少の後にまだ見出されており、従って、次元の呪いに起因していないこと。
二 類似性の新しい尺度を用いて、前の結果を確認すること。
三 人間の言語で訓練されたモデルに特有な脳表現とモデルからの表現との相関
(四) 結果がモデルにおける位置エンコーディングの存在に依存すること。
これらの結果は,先行研究の結果を確認・強化し,最先端の大規模言語モデルの生物学的妥当性と解釈可能性に関する議論に寄与する。
関連論文リスト
- Modeling cognitive processes of natural reading with transformer-based Language Models [2.048226951354646]
これまでの研究では、NグラムやLSTMネットワークのようなモデルが、眼球運動の振る舞いを説明する際の予測可能性の影響を部分的に説明できることが示されている。
本研究では, トランスフォーマーモデル(GPT2, LLaMA-7B, LLaMA2-7B)を評価し, この関係性について検討した。
以上の結果から,これらの構造は,リオ植物学のスペイン語読解者から記録されたガゼ期間の変動を説明する上で,先行モデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2025-05-16T17:47:58Z) - Generative causal testing to bridge data-driven models and scientific theories in language neuroscience [82.995061475971]
脳における言語選択性の簡潔な説明を生成するためのフレームワークである生成因果テスト(GCT)を提案する。
GCTは機能的選択性に類似した脳領域の細粒度の違いを識別できることを示す。
論文 参考訳(メタデータ) (2024-10-01T15:57:48Z) - fMRI predictors based on language models of increasing complexity recover brain left lateralization [4.1618731507412505]
脳の相関の左右差は、パラメータ数によるスケーリング則に従っていることを示す。
この発見は、大きな言語モデルを用いた脳活動の計算的解析と、言語に対する左半球優位を示す失語患者からの古典的な観察を照合する。
論文 参考訳(メタデータ) (2024-05-28T09:24:52Z) - Navigating Brain Language Representations: A Comparative Analysis of Neural Language Models and Psychologically Plausible Models [29.50162863143141]
様々なニューラルネットワークモデルと心理的に妥当なモデルの符号化性能を比較した。
意外なことに、心理学的に妥当なモデルが、さまざまな文脈でニューラルネットワークモデルより優れていることが判明した。
論文 参考訳(メタデータ) (2024-04-30T08:48:07Z) - MulCogBench: A Multi-modal Cognitive Benchmark Dataset for Evaluating
Chinese and English Computational Language Models [44.74364661212373]
本稿では、中国語と英語のネイティブ参加者から収集した認知ベンチマークであるMulCogBenchを提案する。
主観的意味評価、視線追跡、機能的磁気共鳴画像(fMRI)、脳磁図(MEG)など、さまざまな認知データを含んでいる。
その結果、言語モデルは人間の認知データと大きな類似性を共有しており、類似性パターンはデータモダリティと刺激の複雑さによって変調されることがわかった。
論文 参考訳(メタデータ) (2024-03-02T07:49:57Z) - Scaling laws for language encoding models in fMRI [47.498241053872924]
我々は、fMRIを用いて記録された脳の反応を予測するために、より大きなオープンソースモデルの方が優れているかどうかを検証した。
同様の対数行動は、fMRIトレーニングセットのサイズを拡大する際に観察された。
これらの結果は、脳内の言語処理の極めて効果的なモデルが得られることを示唆している。
論文 参考訳(メタデータ) (2023-05-19T17:53:03Z) - Neural Language Models are not Born Equal to Fit Brain Data, but
Training Helps [75.84770193489639]
音声ブックを聴く被験者の機能的磁気共鳴イメージングの時間軸予測に及ぼすテスト損失,トレーニングコーパス,モデルアーキテクチャの影響について検討した。
各モデルの訓練されていないバージョンは、同じ単語をまたいだ脳反応の類似性を捉えることで、脳内のかなりの量のシグナルをすでに説明していることがわかりました。
ニューラル言語モデルを用いたヒューマン・ランゲージ・システムの説明を目的とした今後の研究の実践を提案する。
論文 参考訳(メタデータ) (2022-07-07T15:37:17Z) - A comprehensive comparative evaluation and analysis of Distributional
Semantic Models [61.41800660636555]
我々は、静的DSMによって生成されたり、BERTによって生成された文脈化されたベクトルを平均化して得られるような、型分布ベクトルの包括的評価を行う。
その結果、予測ベースモデルの優越性は現実よりも明らかであり、ユビキタスではないことが明らかとなった。
我々は認知神経科学からRepresentational similarity Analysis(RSA)の方法論を借りて、分布モデルによって生成された意味空間を検査する。
論文 参考訳(メタデータ) (2021-05-20T15:18:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。