論文の概要: Cognitive Workspace: Active Memory Management for LLMs -- An Empirical Study of Functional Infinite Context
- arxiv url: http://arxiv.org/abs/2508.13171v1
- Date: Fri, 08 Aug 2025 16:32:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-24 10:27:26.516279
- Title: Cognitive Workspace: Active Memory Management for LLMs -- An Empirical Study of Functional Infinite Context
- Title(参考訳): 認知ワークスペース: LLMのアクティブメモリ管理 - 機能的無限コンテキストの実証的研究
- Authors: Tao An,
- Abstract要約: 大きな言語モデル(LLM)は、コンテキスト管理の基本的な制限に直面します。
我々は、従来の検索強化世代(RAG)を超越した新しいパラダイムである認知ワークスペースを提案する。
認知ワークスペースは、(1)意図的な情報キュレーションを伴うアクティブメモリ管理、(2)永続的な作業状態を実現する階層的な認知バッファ、(3)タスク駆動型コンテキスト最適化の3つの革新を通じて、これらの制限に対処する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) face fundamental limitations in context management despite recent advances extending context windows to millions of tokens. We propose Cognitive Workspace, a novel paradigm that transcends traditional Retrieval-Augmented Generation (RAG) by emulating human cognitive mechanisms of external memory use. Drawing from cognitive science foundations including Baddeley's working memory model, Clark's extended mind thesis, and Hutchins' distributed cognition framework, we demonstrate that current passive retrieval systems fail to capture the dynamic, task-driven nature of human memory management. Our analysis of 2024-2025 developments reveals that while techniques like Infini-attention and StreamingLLM achieve impressive context lengths, they lack the metacognitive awareness and active planning capabilities essential for true cognitive extension. Cognitive Workspace addresses these limitations through three core innovations: (1) active memory management with deliberate information curation, (2) hierarchical cognitive buffers enabling persistent working states, and (3) task-driven context optimization that dynamically adapts to cognitive demands. Empirical validation demonstrates Cognitive Workspace achieves an average 58.6% memory reuse rate (ranging from 54-60% across different tasks) compared to 0% for traditional RAG, with 17-18% net efficiency gain despite 3.3x higher operation counts. Statistical analysis confirms these advantages with p < 0.001 and Cohen's d > 23 across multiple task types, establishing the first quantitative evidence for active memory superiority in LLM systems. We present a comprehensive theoretical framework synthesizing insights from 50+ recent papers, positioning Cognitive Workspace as a fundamental shift from information retrieval to genuine cognitive augmentation.
- Abstract(参考訳): 大規模言語モデル(LLM)は、コンテキストウィンドウを数百万のトークンに拡張する最近の進歩にもかかわらず、コンテキスト管理の基本的な制限に直面している。
本稿では,外部メモリ使用の認知機構をエミュレートすることで,従来の検索・拡張生成(RAG)を超越する新しいパラダイムであるCognitive Workspaceを提案する。
Baddeleyのワーキングメモリモデル、Clark氏の拡張マインド理論、Hutchins氏の分散認知フレームワークなどを含む認知科学の基礎から、現在の受動的検索システムは、人間のメモリ管理の動的でタスク駆動的な性質を捉えていないことを実証する。
Infini-attention や StreamingLLM のような手法は、文脈長が目覚ましいが、メタ認知的認識と、真の認知拡張に必要なアクティブプランニング能力が欠如していることが、2024-2025 年の開発で明らかになった。
認知ワークスペースは、(1)意図的な情報キュレーションを伴うアクティブメモリ管理、(2)永続的な作業状態を実現する階層的な認知バッファ、(3)認知要求に動的に適応するタスク駆動コンテキスト最適化の3つの革新を通じて、これらの制限に対処する。
実証的な検証では、Cognitive Workspaceは、従来のRAGの0%よりも平均58.6%のメモリ再利用率(54-60%)を達成している。
統計的解析により、p < 0.001 および Cohen's d > 23 が複数のタスクタイプにまたがってこれらの利点を確認し、LCMシステムにおけるアクティブメモリ優位性の最初の定量的証拠を確立した。
本稿では、情報検索から真の認知強化への根本的なシフトとして認知ワークスペースを位置づけ、50以上の論文から洞察を合成する包括的な理論的枠組みを提案する。
関連論文リスト
- United Minds or Isolated Agents? Exploring Coordination of LLMs under Cognitive Load Theory [14.058714578635222]
大規模言語モデル(LLM)は、複雑で多面的なタスクに顕著なパフォーマンス天井を示す。
CoThinkerは認知的過負荷を軽減し、協調的な問題解決能力を高めるために設計された新しいフレームワークである。
論文 参考訳(メタデータ) (2025-06-07T15:48:04Z) - How Memory Management Impacts LLM Agents: An Empirical Study of Experience-Following Behavior [49.62361184944454]
メモリは、大きな言語モデル(LLM)ベースのエージェントにおいて重要なコンポーネントである。
メモリ管理の選択がLLMエージェントの行動,特に長期的パフォーマンスに与える影響について検討する。
論文 参考訳(メタデータ) (2025-05-21T22:35:01Z) - MemInsight: Autonomous Memory Augmentation for LLM Agents [12.620141762922168]
セマンティックなデータ表現と検索機構を強化するために,自動メモリ拡張手法であるMemInsightを提案する。
提案手法の有効性を,会話推薦,質問応答,イベント要約の3つのシナリオで実証的に検証した。
論文 参考訳(メタデータ) (2025-03-27T17:57:28Z) - DeepPerception: Advancing R1-like Cognitive Visual Perception in MLLMs for Knowledge-Intensive Visual Grounding [61.26026947423187]
人間の専門家は、ドメイン知識を活用して知覚的特徴を洗練することによって、きめ細かい視覚的識別に長けている。
現在のMLLM(Multimodal Large Language Models)は、推論を視覚的知覚に統合するのに苦労している。
本稿では,認知的視覚能力を強化したMLLMであるDeepPerceptionを提案する。
論文 参考訳(メタデータ) (2025-03-17T04:06:34Z) - Human Cognitive Benchmarks Reveal Foundational Visual Gaps in MLLMs [65.93003087656754]
VisFactorは、よく確立された認知心理学評価から20の視覚中心のサブテストをデジタル化するベンチマークである。
GPT、Gemini、Claude、LLaMA、Qwen、SEEDファミリーから20のフロンティアマルチモーダル言語モデル(MLLM)を評価する。
最高のパフォーマンスモデルは100点中25.19点のスコアしか得られず、精神的な回転、空間的関係推論、図形の識別といったタスクに一貫して失敗する。
論文 参考訳(メタデータ) (2025-02-23T04:21:32Z) - Human-like Episodic Memory for Infinite Context LLMs [13.211261438927798]
大きな言語モデル(LLM)は目覚ましい能力を示しているが、それでも広範なコンテキストの処理に苦戦している。
本研究では,人間のエピソード記憶と事象認知をLLMに組み込む新しいアプローチであるEM-LLMを紹介する。
EM-LLMは、ベイジアン・サプライズとグラフ理論境界修正の組み合わせを用いて、トークンの列をコヒーレントなエピソード事象に整理する。
論文 参考訳(メタデータ) (2024-07-12T17:34:03Z) - A Survey on the Memory Mechanism of Large Language Model based Agents [66.4963345269611]
大規模言語モデル(LLM)に基づくエージェントは、最近、研究や産業コミュニティから多くの注目を集めている。
LLMベースのエージェントは、現実の問題を解決する基礎となる自己進化能力に特徴付けられる。
エージェント-環境相互作用をサポートする重要なコンポーネントは、エージェントのメモリである。
論文 参考訳(メタデータ) (2024-04-21T01:49:46Z) - Working Memory Capacity of ChatGPT: An Empirical Study [10.34965407119012]
OpenAIによって開発された大規模言語モデルであるChatGPTの動作メモリ容量を体系的に評価する。
実験の結果,ChatGPTの動作メモリ容量は人間と著しく類似していることが判明した。
論文 参考訳(メタデータ) (2023-04-30T11:54:40Z) - CogNGen: Constructing the Kernel of a Hyperdimensional Predictive
Processing Cognitive Architecture [79.07468367923619]
神経生物学的に妥当な2つの計算モデルを組み合わせた新しい認知アーキテクチャを提案する。
我々は、現代の機械学習技術の力を持つ認知アーキテクチャを開発することを目指している。
論文 参考訳(メタデータ) (2022-03-31T04:44:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。