論文の概要: Emerging Human-like Strategies for Semantic Memory Foraging in Large Language Models
- arxiv url: http://arxiv.org/abs/2603.01822v1
- Date: Mon, 02 Mar 2026 12:55:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.877825
- Title: Emerging Human-like Strategies for Semantic Memory Foraging in Large Language Models
- Title(参考訳): 大規模言語モデルにおけるセマンティックメモリ・フォージングのためのヒューマンライクな新しい戦略
- Authors: Eric Lacosse, Mariana Duarte, Peter M. Todd, Daniel C. McNamee,
- Abstract要約: 人間とLarge Language Models (LLM) はどちらも、意味記憶の巨大なリポジトリを格納している。
人間では、このメモリストアへの効率的で戦略的アクセスは、様々な認知機能にとって重要な基盤である。
- 参考スコア(独自算出の注目度): 0.8749675983608171
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Both humans and Large Language Models (LLMs) store a vast repository of semantic memories. In humans, efficient and strategic access to this memory store is a critical foundation for a variety of cognitive functions. Such access has long been a focus of psychology and the computational mechanisms behind it are now well characterized. Much of this understanding has been gleaned from a widely-used neuropsychological and cognitive science assessment called the Semantic Fluency Task (SFT), which requires the generation of as many semantically constrained concepts as possible. Our goal is to apply mechanistic interpretability techniques to bring greater rigor to the study of semantic memory foraging in LLMs. To this end, we present preliminary results examining SFT as a case study. A central focus is on convergent and divergent patterns of generative memory search, which in humans play complementary strategic roles in efficient memory foraging. We show that these same behavioral signatures, critical to human performance on the SFT, also emerge as identifiable patterns in LLMs across distinct layers. Potentially, this analysis provides new insights into how LLMs may be adapted into closer cognitive alignment with humans, or alternatively, guided toward productive cognitive \emph{disalignment} to enhance complementary strengths in human-AI interaction.
- Abstract(参考訳): 人間とLarge Language Models (LLM) はどちらも、意味記憶の巨大なリポジトリを格納している。
人間では、このメモリストアへの効率的で戦略的アクセスは、様々な認知機能にとって重要な基盤である。
このようなアクセスは、長い間心理学の焦点であり、その背景にある計算機構は、現在ではよく特徴づけられている。
この理解の多くは、セマンティック・フルエンシ・タスク (Semantic Fluency Task, SFT) と呼ばれる、広く使われている神経心理学および認知科学のアセスメントから得ている。
我々のゴールは、LLMにおけるセマンティックメモリの捕食の研究により大きな厳密さをもたらすために、機械論的解釈可能性技術を適用することである。
そこで本研究では,SFTをケーススタディとして検討した。
主な焦点は、生成記憶探索の収束パターンと分岐パターンであり、これはヒトにおいて、効率的な記憶の捕食において相補的な戦略的な役割を担っている。
SFT上での人間のパフォーマンスに重要なこれらの行動シグネチャは、異なる層にまたがるLLMの識別可能なパターンとして現れる。
この分析は、LLMが人間とより密接な認知アライメントにどのように適合するか、あるいは、人間とAIの相互作用において補完的な強度を高めるために、生産的な認知の「emph{disalignment}」へと導かれるのか、新たな洞察を提供する。
関連論文リスト
- UniCog: Uncovering Cognitive Abilities of LLMs through Latent Mind Space Analysis [69.50752734049985]
成長する研究機関は、大きな言語モデル(LLM)の認知過程が人間のものと根本的に異なることを示唆している。
潜在心空間を介してLLM認知を分析する統一フレームワークUniCogを提案する。
論文 参考訳(メタデータ) (2026-01-25T16:19:00Z) - AI Meets Brain: Memory Systems from Cognitive Neuroscience to Autonomous Agents [69.39123054975218]
メモリは過去と未来の重要なネクサスブリッジとして機能する。
自律エージェントに関する最近の研究は、認知神経科学に基づいて効率的な記憶を設計することに集中している。
論文 参考訳(メタデータ) (2025-12-29T10:01:32Z) - Think Socially via Cognitive Reasoning [94.60442643943696]
本稿では,人間の社会的認知をモデルとした認知推論について紹介する。
CogFlowは、この機能をLLMに組み込む完全なフレームワークである。
論文 参考訳(メタデータ) (2025-09-26T16:27:29Z) - Visual Large Language Models Exhibit Human-Level Cognitive Flexibility in the Wisconsin Card Sorting Test [5.346677002840565]
本研究では、最先端の視覚大言語モデル(VLLM)の認知的柔軟性を評価する。
以上の結果から,VLLMはテキストベースの入力によって,チェーン・オブ・シークレットの下で人間レベルのセットシフト能力を達成したり,超えたりすることが判明した。
論文 参考訳(メタデータ) (2025-05-28T08:40:55Z) - From Tokens to Thoughts: How LLMs and Humans Trade Compression for Meaning [63.25540801694765]
大きな言語モデル (LLMs) は言語能力を示すが、同じバランスをとれるかどうかは不明だ。
本稿では,LLMと人間を定量的に比較するために,Information Bottleneckの原理を適用した。
論文 参考訳(メタデータ) (2025-05-21T16:29:00Z) - Talking to the brain: Using Large Language Models as Proxies to Model Brain Semantic Representation [6.870138108382051]
本稿では,マルチモーダル大言語モデル(LLM)をプロキシとして活用して,自然画像から意味情報を抽出する手法を提案する。
LLMから派生した表現は、fMRIによって測定された確立された神経活動パターンをうまく予測する。
LLM由来の表現から構築された脳意味ネットワークは、機能的および文脈的関連を反映する意味あるクラスタを識別する。
論文 参考訳(メタデータ) (2025-02-26T00:40:28Z) - Brain-like Functional Organization within Large Language Models [58.93629121400745]
人間の脳は長い間人工知能(AI)の追求にインスピレーションを与えてきた
最近のニューロイメージング研究は、人工ニューラルネットワーク(ANN)の計算的表現と、人間の脳の刺激に対する神経反応との整合性の説得力のある証拠を提供する。
本研究では、人工ニューロンのサブグループと機能的脳ネットワーク(FBN)を直接結合することで、このギャップを埋める。
このフレームワークはANサブグループをFBNにリンクし、大きな言語モデル(LLM)内で脳に似た機能的組織を記述できる。
論文 参考訳(メタデータ) (2024-10-25T13:15:17Z) - Towards a Psychology of Machines: Large Language Models Predict Human Memory [0.0]
大規模言語モデル(LLM)は自然言語処理において顕著な能力を示している。
本研究では,LLMが庭道文や文脈情報を含むタスクにおいて,人間の記憶性能を予測できるかどうかを検討する。
論文 参考訳(メタデータ) (2024-03-08T08:41:14Z) - Empowering Working Memory for Large Language Model Agents [9.83467478231344]
本稿では,認知心理学のワーキングメモリフレームワークを大規模言語モデル(LLM)に適用する可能性について検討する。
エピソード間の記憶を維持するために、集中型ワーキングメモリハブとエピソディックバッファアクセスを取り入れた革新的なモデルが提案されている。
このアーキテクチャは、複雑なタスクと協調シナリオの間のニュアンス付きコンテキスト推論に対して、より継続的なものを提供することを目的としている。
論文 参考訳(メタデータ) (2023-12-22T05:59:00Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。