論文の概要: Forgetting as a Feature: Cognitive Alignment of Large Language Models
- arxiv url: http://arxiv.org/abs/2601.09726v1
- Date: Sun, 28 Dec 2025 10:43:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.706837
- Title: Forgetting as a Feature: Cognitive Alignment of Large Language Models
- Title(参考訳): 機能としての留意:大規模言語モデルの認知的アライメント
- Authors: Hien Tran, Quinten Steenhuis, Alexandros Christoforos, Chadbourne Davis,
- Abstract要約: 本研究では,Large Language Models (LLM) が過去の情報を体系的に忘れていることを示す。
人間の記憶力学からインスピレーションを得て,LLM推論を指数的崩壊によって支配される確率的記憶過程としてモデル化する。
これらの観測に基づいて,人間のような記憶崩壊を模倣するエビデンス統合を形作る軽量な戦略である確率的記憶促進法を提案する。
- 参考スコア(独自算出の注目度): 39.146761527401424
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are often evaluated against ideals of perfect Bayesian inference, yet growing evidence suggests that their in-context reasoning exhibits systematic forgetting of past information. Rather than viewing this behavior as a limitation, we reinterpret forgetting as a functional cognitive mechanism. Drawing inspiration from human memory dynamics, we model LLM inference as a probabilistic memory process governed by exponential decay. We introduce a benchmark suite that evaluates temporal reasoning, concept drift adaptation, and associative recall, enabling direct comparison between model behavior and human cognitive patterns. Our empirical results reveal that LLMs demonstrate forgetting rates analogous to human memory efficiency trade-offs between stability and adaptability. Building on these observations, we propose probabilistic memory prompting, a lightweight strategy that shapes evidence integration to mimic human-like memory decay, leading to improved long-horizon reasoning performance. Our findings position forgetting not as a failure mode, but as a principled mechanism for adaptive intelligence.
- Abstract(参考訳): 大規模言語モデル(LLM)は、完全ベイズ推論の理想に対してしばしば評価されるが、文脈内推論が過去の情報を体系的に忘れていることを示す証拠が増えている。
この行動を制限と見なすのではなく、私たちは忘れを機能的認知メカニズムとして再解釈する。
人間の記憶力学からインスピレーションを得て,LLM推論を指数的崩壊によって支配される確率的記憶過程としてモデル化する。
本稿では,時間的推論,概念的ドリフト適応,連想的リコールを評価し,モデル行動と人間の認知パターンの直接比較を可能にするベンチマークスイートを提案する。
実験の結果,LLMは安定性と適応性の間のトレードオフに類似した記憶効率の低下を示すことがわかった。
これらの観測に基づいて,人間のような記憶崩壊を模倣するエビデンス統合を形作る軽量な戦略である確率的記憶促進法を提案する。
本研究は, 障害モードではなく, 適応知能の原理的メカニズムとして, 忘れる位置にある。
関連論文リスト
- Analyzing Reasoning Consistency in Large Multimodal Models under Cross-Modal Conflicts [74.47786985522762]
テキスト慣性(textual inertia)と呼ばれる重要な障害モードを特定し、矛盾する視覚的証拠を無視しながら、モデルは間違ったテキストに盲目的に固執する傾向がある。
本稿では,多種多様なLMMの推論連鎖に摂動を構造的に注入するLogicGraph摂動プロトコルを提案する。
その結果,10%未満の症例で自己修正が成功し,主に視覚的テキスト誤りの伝播に寄与することが判明した。
論文 参考訳(メタデータ) (2026-01-07T16:39:34Z) - More Than Irrational: Modeling Belief-Biased Agents [25.274115351731325]
本稿では,認知的拘束力のあるエージェントに対して,偏見的信念の下で最適に作用する計算合理的(CR)ユーザモデルについて紹介する。
受動的観察から、潜伏するユーザ固有の境界を識別し、バイアスのある信念状態を推定するという課題に対処する。
CRモデルはメモリ容量の異なるレベルに対応する直感的に妥当な振る舞いを生成する。
論文 参考訳(メタデータ) (2025-11-15T21:14:37Z) - Beyond Memorization: Extending Reasoning Depth with Recurrence, Memory and Test-Time Compute Scaling [60.63703438729223]
異なるアーキテクチャとトレーニング手法がモデル多段階推論能力にどのように影響するかを示す。
我々は,逐次計算においてモデル深度の増加が重要な役割を担っていることを確認した。
論文 参考訳(メタデータ) (2025-08-22T18:57:08Z) - Sequence-to-Sequence Models with Attention Mechanistically Map to the Architecture of Human Memory Search [13.961239165301315]
ニューラルネットワーク翻訳の基本構造は、人間の記憶のコンテキスト保守と検索モデルで指定されたものと直接対応するメカニズムを示す。
我々は、人間の記憶探索の認知モデルとしてニューラルネットワーク翻訳モデルを実装し、解釈可能であり、学習の複雑なダイナミクスを捉えることができる。
論文 参考訳(メタデータ) (2025-06-20T18:43:15Z) - Dynamic Programming Techniques for Enhancing Cognitive Representation in Knowledge Tracing [125.75923987618977]
認知表現動的プログラミングに基づく知識追跡(CRDP-KT)モデルを提案する。
質問の難易度とそれらの間の性能間隔に基づいて認知表現を最適化する動的プログラミングアルゴリズムである。
これは、その後のモデルトレーニングのためにより正確で体系的な入力機能を提供し、それによって認知状態のシミュレーションにおける歪みを最小限にする。
論文 参考訳(メタデータ) (2025-06-03T14:44:48Z) - The Reasoning-Memorization Interplay in Language Models Is Mediated by a Single Direction [34.86855316803838]
我々は、真の推論とメモリリコールのバランスを制御できるモデル残差ストリームの線形特徴セットを同定する。
これらの推論機能に介入することで、解答生成時に最も関連性の高い問題解決能力をモデルがより正確に活性化できることが示される。
論文 参考訳(メタデータ) (2025-03-29T14:00:44Z) - I Predict Therefore I Am: Is Next Token Prediction Enough to Learn Human-Interpretable Concepts from Data? [76.15163242945813]
大規模言語モデル (LLM) は、多くの人が知能の形式を示すと結論づけている。
本稿では,潜在離散変数として表現される人間解釈可能な概念に基づいてトークンを生成する新しい生成モデルを提案する。
論文 参考訳(メタデータ) (2025-03-12T01:21:17Z) - Evolvable Psychology Informed Neural Network for Memory Behavior Modeling [2.5258264040936305]
本稿では,PsyINNというメモリ挙動モデリングのためのニューラルネットワークの理論を提案する。
ニューラルネットワークとスパース回帰の微分を組み合わせたフレームワークを構築し、共同最適化を実現する。
4つの大規模実世界のメモリ挙動データセットにおいて,提案手法は予測精度において最先端の手法を超越する。
論文 参考訳(メタデータ) (2024-08-23T01:35:32Z) - Causal Estimation of Memorisation Profiles [58.20086589761273]
言語モデルにおける記憶の理解は、実践的および社会的意味を持つ。
覚書化(英: Memorisation)とは、モデルがそのインスタンスを予測できる能力に対して、あるインスタンスでトレーニングを行うことによる因果的影響である。
本稿では,計量学の差分差分設計に基づく,新しい,原理的,効率的な記憶推定法を提案する。
論文 参考訳(メタデータ) (2024-06-06T17:59:09Z) - Memory in humans and deep language models: Linking hypotheses for model
augmentation [1.0485739694839669]
メモリ拡張トランスフォーマーは、人間の記憶文学からの洞察から大きく恩恵を受けることができると我々は主張する。
本稿では、クロスドメインリンク仮説の仕様により、人間の記憶システムからのエビデンスを統合するアプローチについて詳述する。
論文 参考訳(メタデータ) (2022-10-04T19:35:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。