論文の概要: CogMem: A Cognitive Memory Architecture for Sustained Multi-Turn Reasoning in Large Language Models
- arxiv url: http://arxiv.org/abs/2512.14118v1
- Date: Tue, 16 Dec 2025 06:01:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.612052
- Title: CogMem: A Cognitive Memory Architecture for Sustained Multi-Turn Reasoning in Large Language Models
- Title(参考訳): CogMem: 大規模言語モデルにおける持続的マルチスレッド推論のための認知メモリアーキテクチャ
- Authors: Yiran Zhang, Jincheng Hu, Mark Dras, Usman Naseem,
- Abstract要約: 大規模言語モデル(LLM)はシングルターン推論では優れているが、拡張されたマルチターン相互作用よりも精度とコヒーレンスを失うことが多い。
メモリ拡張型LLMアーキテクチャであるCogMemを導入する。
TurnBenchの実験では、この階層化された設計は推論の失敗を軽減し、コンテキストの成長を制御し、拡張された推論チェーン間の一貫性を改善する。
- 参考スコア(独自算出の注目度): 21.427373172124167
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) excel at single-turn reasoning but often lose accuracy and coherence over extended, multi-turn interactions. Recent evaluations such as TurnBench highlight recurring failure modes-reasoning bias, task drift, hallucination, overconfidence, and memory decay. Current approaches typically append full conversational histories, causing unbounded context growth, higher computational costs, and degraded reasoning efficiency. We introduce CogMem, a cognitively inspired, memory-augmented LLM architecture that supports sustained iterative reasoning through structured, persistent memory. CogMem incorporates three layers: a Long-Term Memory (LTM) that consolidates cross-session reasoning strategies; a Direct Access (DA) memory that maintains session-level notes and retrieves relevant long-term memories; and a Focus of Attention (FoA) mechanism that dynamically reconstructs concise, task-relevant context at each turn. Experiments on TurnBench show that this layered design mitigates reasoning failures, controls context growth, and improves consistency across extended reasoning chains, moving toward more reliable, human-like reasoning in LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)はシングルターン推論では優れているが、拡張されたマルチターン相互作用よりも精度とコヒーレンスを失うことが多い。
TurnBenchなどの最近の評価では、繰り返し発生する障害モードのバイアス、タスクドリフト、幻覚、過信、メモリ崩壊が強調されている。
現在のアプローチは通常、完全な会話履歴を付加し、境界のない文脈成長、高い計算コスト、劣化した推論効率を引き起こす。
我々はCogMemを紹介した。CogMemは認知にインスパイアされ、メモリ拡張されたLLMアーキテクチャで、構造化された永続メモリを通して持続的反復推論をサポートする。
CogMemには3つのレイヤがある: クロスセッション推論戦略を統合する長期記憶(LTM)、セッションレベルのメモを保持して関連する長期記憶を取得するダイレクトアクセス(DA)メモリ、各ターンで簡潔でタスク関連のあるコンテキストを動的に再構築するフォーカス・オブ・アテンション(FoA)メカニズム。
TurnBenchの実験では、この階層化設計は推論失敗を軽減し、コンテキスト成長を制御し、拡張された推論チェーン間の一貫性を改善し、LLMにおけるより信頼性の高い人間ライクな推論に向かっている。
関連論文リスト
- MemVerse: Multimodal Memory for Lifelong Learning Agents [35.218549149012844]
我々は,モデルに依存しないプラグアンドプレイメモリフレームワークであるMemVerseを紹介した。
MemVerseは階層的検索ベースのメモリで高速パラメトリックリコールを行う。
スケーラブルで適応的なマルチモーダルインテリジェンスを実現する。
論文 参考訳(メタデータ) (2025-12-03T10:06:14Z) - Agentic Learner with Grow-and-Refine Multimodal Semantic Memory [50.81667005063605]
ViLoMemは、コンパクトなスキーマベースのメモリを構築するデュアルストリームメモリフレームワークである。
視覚的障害パターンと論理的推論エラーを符号化し、MLLMが成功し失敗した経験から学ぶことを可能にする。
論文 参考訳(メタデータ) (2025-11-26T18:55:08Z) - GCAgent: Long-Video Understanding via Schematic and Narrative Episodic Memory [59.869552603264076]
GCAgent(Global-Context-Aware Agent)は,広義の長ビデオ理解を実現する新しいフレームワークである。
これは、イベントとその因果関係と時間的関係を、簡潔で組織化されたコンテキストに構造的にモデル化するものです。
実験により、GCAgentは、強力なMLLMベースライン上でのVideo-MME Long分割において、最大23.5%の精度向上を実現した。
論文 参考訳(メタデータ) (2025-11-15T04:29:00Z) - Evaluating Long-Term Memory for Long-Context Question Answering [100.1267054069757]
質問応答タスクにアノテートした合成長文対話のベンチマークであるLoCoMoを用いて,メモリ拡張手法の体系的評価を行う。
以上の結果から,メモリ拡張アプローチによりトークン使用率が90%以上削減され,競争精度が向上した。
論文 参考訳(メタデータ) (2025-10-27T18:03:50Z) - Look Back to Reason Forward: Revisitable Memory for Long-Context LLM Agents [33.617262543252494]
本稿では、メモリ履歴全体からの選択的検索を可能にするコールバック強化メモリを備えたメモリ拡張エージェントReMemR1を提案する。
また,RLMLR(Reinforcement Learning with Multi-Level Rewards)を提案する。
論文 参考訳(メタデータ) (2025-09-27T01:36:46Z) - Memory-R1: Enhancing Large Language Model Agents to Manage and Utilize Memories via Reinforcement Learning [89.55738101744657]
大規模言語モデル(LLM)は、幅広いNLPタスクで印象的な機能を示しているが、基本的にはステートレスである。
本稿では,LLMに外部メモリを積極的に管理・活用する機能を備えた強化学習フレームワークであるMemory-R1を提案する。
論文 参考訳(メタデータ) (2025-08-27T12:26:55Z) - In Prospect and Retrospect: Reflective Memory Management for Long-term Personalized Dialogue Agents [70.12342024019044]
大規模言語モデル(LLM)は、オープンエンド対話において大きな進歩を遂げているが、関連する情報の保持と取得ができないため、その有効性は制限されている。
本稿では,長期対話エージェントのための新しいメカニズムであるリフレクティブメモリ管理(RMM)を提案する。
RMMは、LongMemEvalデータセットのメモリ管理なしでベースラインよりも10%以上精度が向上している。
論文 参考訳(メタデータ) (2025-03-11T04:15:52Z) - Contextual Memory Reweaving in Large Language Models Using Layered Latent State Reconstruction [0.0]
シーケンスの長さが増加するにつれて、トークン依存は低下し、一貫性と事実整合性が低下する。
異なる処理層でキャプチャされた潜伏状態の再織り直しを通じてこの問題を軽減するための構造化されたアプローチが導入された。
提案されたContextual Memory Reweavingフレームワークには、Lambed Latent State Restructationメカニズムが組み込まれている。
論文 参考訳(メタデータ) (2025-02-04T06:25:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。