論文の概要: Large Language Models as Model Organisms for Human Associative Learning
- arxiv url: http://arxiv.org/abs/2510.21408v1
- Date: Fri, 24 Oct 2025 12:52:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.471732
- Title: Large Language Models as Model Organisms for Human Associative Learning
- Title(参考訳): ヒューマン・アソシエイト・ラーニングのためのモデル・オーガナイゼーションとしての大規模言語モデル
- Authors: Camila Kolling, Vy Ai Vo, Mariya Toneva,
- Abstract要約: 認知神経科学関連学習パラダイムに適応し、6つのモデルで表現がどのように進化するかを考察する。
初期所見では非単調な塑性仮説と一致した非単調なパターンがみられた。
高い語彙干渉は差別を増幅し、表現的変化はアイテムの類似性とグローバルな競合の両方に影響されることが示唆された。
- 参考スコア(独自算出の注目度): 9.196745903193609
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Associative learning--forming links between co-occurring items--is fundamental to human cognition, reshaping internal representations in complex ways. Testing hypotheses on how representational changes occur in biological systems is challenging, but large language models (LLMs) offer a scalable alternative. Building on LLMs' in-context learning, we adapt a cognitive neuroscience associative learning paradigm and investigate how representations evolve across six models. Our initial findings reveal a non-monotonic pattern consistent with the Non-Monotonic Plasticity Hypothesis, with moderately similar items differentiating after learning. Leveraging the controllability of LLMs, we further show that this differentiation is modulated by the overlap of associated items with the broader vocabulary--a factor we term vocabulary interference, capturing how new associations compete with prior knowledge. We find that higher vocabulary interference amplifies differentiation, suggesting that representational change is influenced by both item similarity and global competition. Our findings position LLMs not only as powerful tools for studying representational dynamics in human-like learning systems, but also as accessible and general computational models for generating new hypotheses about the principles underlying memory reorganization in the brain.
- Abstract(参考訳): 連想学習(Associative learning--forming link between co-occurring items)は、人間の認知の基本であり、複雑な方法で内部表現を再構築する。
生物学的システムにおける表現的変化の発生に関する仮説をテストすることは難しいが、大規模言語モデル(LLM)はスケーラブルな代替手段を提供する。
LLMの文脈内学習に基づいて、認知神経科学関連学習パラダイムを適用し、表現が6つのモデル間でどのように進化するかを調べる。
初回報告では,非単調な塑性仮説と一致した非単調なパターンがみられ,学習後に相違する項目が適度に類似していた。
LLMの制御性を活用することで、この分化は、関連する項目とより広い語彙の重複によってもたらされることを示す。
高い語彙干渉は差別を増幅し、表現的変化はアイテムの類似性とグローバルな競合の両方に影響されることが示唆された。
人間の学習システムにおける表現力学を研究するための強力なツールとしてだけでなく、脳における記憶再構成の基礎となる原理に関する新しい仮説を生成するための、アクセス可能で一般的な計算モデルとして、LLMを位置づけた。
関連論文リスト
- Unraveling the cognitive patterns of Large Language Models through module communities [45.399985422756224]
大規模言語モデル(LLM)は、科学、工学、社会において大きな進歩を遂げ、我々の世界を変えました。
実用性と実用性にもかかわらず、LLMの基盤となるメカニズムは何十億ものパラメータや複雑な構造の中に隠されている。
生物学における新たな認知を理解するためのアプローチを採用することで、このギャップに対処する。
論文 参考訳(メタデータ) (2025-08-25T16:49:38Z) - Unveiling the Learning Mind of Language Models: A Cognitive Framework and Empirical Study [50.065744358362345]
大規模言語モデル(LLM)は、数学、コーディング、推論といったタスクにまたがる印象的な機能を示している。
しかし、彼らの学習能力は、動的環境に適応し、新しい知識を得るのに不可欠であり、まだ過小評価されていない。
論文 参考訳(メタデータ) (2025-06-16T13:24:50Z) - Quantifying Cross-Modality Memorization in Vision-Language Models [86.82366725590508]
モーダリティ記憶のユニークな特徴について検討し,視覚言語モデルを中心とした体系的な研究を行う。
以上の結果から,一方のモダリティが他方のモダリティに伝達されることが判明したが,情報源の情報と対象のモダリティの間には大きなギャップがあることがわかった。
論文 参考訳(メタデータ) (2025-06-05T16:10:47Z) - From Tokens to Thoughts: How LLMs and Humans Trade Compression for Meaning [63.25540801694765]
大きな言語モデル (LLMs) は言語能力を示すが、同じバランスをとれるかどうかは不明だ。
本稿では,LLMと人間を定量的に比較するために,Information Bottleneckの原理を適用した。
論文 参考訳(メタデータ) (2025-05-21T16:29:00Z) - Large Language Models as Neurolinguistic Subjects: Discrepancy between Performance and Competence [49.60849499134362]
本研究では,大言語モデル(LLM)の記号化(形式)および記号化(意味)に関する言語的理解について検討する。
ミニマルペアと診断プローブを組み合わせてモデル層間のアクティベーションパターンを解析する新しい手法を用いて,ニューロ言語学的アプローチを提案する。
その結果,(1)心理言語学的・神経言語学的手法では,言語能力と能力が異なっていること,(2)直接確率測定では言語能力が正確に評価されないこと,(3)指導のチューニングでは能力が大きく変化しないが,性能は向上しないことがわかった。
論文 参考訳(メタデータ) (2024-11-12T04:16:44Z) - Brain-Like Language Processing via a Shallow Untrained Multihead Attention Network [16.317199232071232]
大規模言語モデル(LLM)は、人間の言語システムの効果的なモデルであることが示されている。
本研究では、未学習モデルの驚くほどのアライメントを駆動する重要なアーキテクチャコンポーネントについて検討する。
論文 参考訳(メタデータ) (2024-06-21T12:54:03Z) - LLMs as Models for Analogical Reasoning [14.412456982731467]
アナロジカル推論は人間の認知と学習の基本である。
近年の研究では、大きな言語モデルが類似の推論タスクにおいて人間と一致することが示されている。
論文 参考訳(メタデータ) (2024-06-19T20:07:37Z) - Heterogeneous Contrastive Learning for Foundation Models and Beyond [73.74745053250619]
ビッグデータと人工知能の時代において、新しいパラダイムは、大規模な異種データをモデル化するために、対照的な自己教師付き学習を活用することである。
本調査は基礎モデルの異種コントラスト学習の現況を批判的に評価する。
論文 参考訳(メタデータ) (2024-03-30T02:55:49Z) - The dynamic interplay between in-context and in-weight learning in humans and neural networks [16.43008975197273]
In-context Learning" (ICL) は、ニューラルネットワークに固有のIWLと共存可能な、根本的に異なる学習特性を持たせることができることを示す。
我々の研究は、創発的なICLが、そのネイティブなIWLと共存可能な、根本的に異なる学習特性を持つニューラルネットワークをどのように装備できるかを示している。
論文 参考訳(メタデータ) (2024-02-13T18:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。