論文の概要: MemoBrain: Executive Memory as an Agentic Brain for Reasoning
- arxiv url: http://arxiv.org/abs/2601.08079v1
- Date: Mon, 12 Jan 2026 23:44:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:18.983498
- Title: MemoBrain: Executive Memory as an Agentic Brain for Reasoning
- Title(参考訳): MemoBrain: 推論のためのエージェント脳としてのエグゼクティブメモリ
- Authors: Hongjin Qian, Zhao Cao, Zheng Liu,
- Abstract要約: 本稿では,ツール拡張エージェントのメモリモデルであるMemoBrainを提案する。
MemoBrainは推論エージェントと一緒にコパイロットとして動作し、実行をブロックせずに推論の進捗を整理する。
我々は,GAIA,WebWalker,BrowseComp-Plusなどの長軸ベンチマークでMemoBrainを評価した。
- 参考スコア(独自算出の注目度): 19.13580311003466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Complex reasoning in tool-augmented agent frameworks is inherently long-horizon, causing reasoning traces and transient tool artifacts to accumulate and strain the bounded working context of large language models. Without explicit memory mechanisms, such accumulation disrupts logical continuity and undermines task alignment. This positions memory not as an auxiliary efficiency concern, but as a core component for sustaining coherent, goal-directed reasoning over long horizons. We propose MemoBrain, an executive memory model for tool-augmented agents that constructs a dependency-aware memory over reasoning steps, capturing salient intermediate states and their logical relations. Operating as a co-pilot alongside the reasoning agent, MemoBrain organizes reasoning progress without blocking execution and actively manages the working context. Specifically, it prunes invalid steps, folds completed sub-trajectories, and preserves a compact, high-salience reasoning backbone under a fixed context budget. Together, these mechanisms enable explicit cognitive control over reasoning trajectories rather than passive context accumulation. We evaluate MemoBrain on challenging long-horizon benchmarks, including GAIA, WebWalker, and BrowseComp-Plus, demonstrating consistent improvements over strong baselines.
- Abstract(参考訳): ツール拡張されたエージェントフレームワークの複雑な推論は本質的に長い水平であり、推論トレースと過渡的なツールアーティファクトが大きな言語モデルのコンテキスト境界を蓄積し歪ませる原因となっている。
明示的なメモリ機構がなければ、そのような蓄積は論理的連続性を阻害し、タスクアライメントを損なう。
これにより、メモリは補助的な効率上の問題ではなく、長い地平線上の一貫性のあるゴール指向推論を維持するためのコアコンポーネントとして位置づけられる。
本稿では,ツール拡張エージェントのエグゼクティブメモリモデルであるMemoBrainを提案する。
MemoBrainは推論エージェントと共同パイロットとして運用されており、実行をブロックせずに推論の進捗を整理し、作業コンテキストを積極的に管理している。
具体的には、無効なステップを実行し、完了したサブトラジェクトリを折り畳み、固定されたコンテキスト予算の下で、コンパクトで高可用性の推論バックボーンを保存する。
これらのメカニズムは、受動的文脈蓄積よりも、推論軌道に対する明確な認知制御を可能にする。
我々は,GAIA,WebWalker,BrowseComp-Plusなどの長軸ベンチマークに対するMemoBrainの評価を行った。
関連論文リスト
- Fine-Mem: Fine-Grained Feedback Alignment for Long-Horizon Memory Management [63.48041801851891]
Fine-Memは、きめ細かいフィードバックアライメントのために設計された統一されたフレームワークである。
MemalphaとMemoryAgentBenchの実験は、Fin-Memが強いベースラインを一貫して上回ることを示した。
論文 参考訳(メタデータ) (2026-01-13T11:06:17Z) - Amory: Building Coherent Narrative-Driven Agent Memory through Agentic Reasoning [14.368376032599437]
Amoryは、オフライン時に構造化されたメモリ表現を積極的に構築するワーキングメモリフレームワークである。
アモリーは会話の断片を叙事詩の物語に整理し、記憶を運動量と統合し、周辺事実を意味記憶に意味づける。
Amoryは従来の最先端よりも大幅に改善され、パフォーマンスは完全なコンテキスト推論に匹敵し、レスポンスタイムを50%削減した。
論文 参考訳(メタデータ) (2026-01-09T19:51:11Z) - Memory Matters More: Event-Centric Memory as a Logic Map for Agent Searching and Reasoning [55.251697395358285]
大規模言語モデル(LLM)は、環境を推論し、計画し、相互作用するインテリジェントエージェントとして、ますます多くデプロイされている。
長期のシナリオに効果的にスケールするには、そのようなエージェントの重要な機能は、過去の経験を保持し、整理し、取り出すことができるメモリメカニズムである。
イベント理論にインスパイアされたイベント中心のメモリフレームワークであるCompassMemを提案する。
論文 参考訳(メタデータ) (2026-01-08T08:44:07Z) - Towards Efficient Agents: A Co-Design of Inference Architecture and System [66.59916327634639]
本稿では,エージェントアクセラレーションのための統合フレームワークであるAgentInferを提案する。
問題をAgentCollab、AgentSched、AgentSAM、AgentCompressの4つの相乗的コンポーネントに分解する。
BrowseComp-zhとDeepDiverベンチマークの実験では、これらの手法の相乗的コラボレーションを通じて、AgentInferは非効率なトークン消費を50%以上削減することを示した。
論文 参考訳(メタデータ) (2025-12-20T12:06:13Z) - CogMem: A Cognitive Memory Architecture for Sustained Multi-Turn Reasoning in Large Language Models [21.427373172124167]
大規模言語モデル(LLM)はシングルターン推論では優れているが、拡張されたマルチターン相互作用よりも精度とコヒーレンスを失うことが多い。
メモリ拡張型LLMアーキテクチャであるCogMemを導入する。
TurnBenchの実験では、この階層化された設計は推論の失敗を軽減し、コンテキストの成長を制御し、拡張された推論チェーン間の一貫性を改善する。
論文 参考訳(メタデータ) (2025-12-16T06:01:08Z) - Graph-Memoized Reasoning: Foundations Structured Workflow Reuse in Intelligent Systems [0.0]
グラフ構造化メモリとして、推論を表現、保存、再利用するための正式なフレームワークであるGraph-Memoized Reasoningを導入する。
過去の決定グラフを符号化し、構造的および意味的類似性を通してそれらを検索することにより、新しい推論タスクにおける部分グラフの合成再利用を可能にする。
論文 参考訳(メタデータ) (2025-11-11T07:42:37Z) - MemGen: Weaving Generative Latent Memory for Self-Evolving Agents [57.1835920227202]
本稿では,エージェントに人間的な認知機能を持たせる動的生成記憶フレームワークであるMemGenを提案する。
MemGenは、エージェントが推論を通して潜在記憶をリコールし、増大させ、記憶と認知の密接なサイクルを生み出すことを可能にする。
論文 参考訳(メタデータ) (2025-09-29T12:33:13Z) - Fast Thinking for Large Language Models [67.7238685892317]
我々は、訓練中にのみ簡潔なCoTスケッチを使用して個別戦略事前のコードブックを学習するフレームワークであるLatent Codebooks for Fast Thinkingを紹介した。
推論では、コードブックから抽出した少数の連続的思考スイッチのモデル条件を1パスにすることで、明確な推論トークンを生成することなく、戦略レベルのガイダンスを可能にする。
論文 参考訳(メタデータ) (2025-09-28T04:19:48Z) - Memory Management and Contextual Consistency for Long-Running Low-Code Agents [0.0]
本稿ではLCNCエージェントに特化して設計された新しいハイブリッドメモリシステムを提案する。
認知科学にインスパイアされた私たちのアーキテクチャは、エピソードとセマンティックメモリコンポーネントと、積極的な「インテリジェント・デカイ」メカニズムを組み合わせています。
鍵となるイノベーションは、LCNCパラダイムに沿ったユーザ中心の可視化インターフェースであり、非技術者のユーザがエージェントのメモリを直接管理できるようにする。
論文 参考訳(メタデータ) (2025-09-27T08:01:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。