論文の概要: Advancing Multimodal Agent Reasoning with Long-Term Neuro-Symbolic Memory
- arxiv url: http://arxiv.org/abs/2603.15280v1
- Date: Mon, 16 Mar 2026 13:43:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.393336
- Title: Advancing Multimodal Agent Reasoning with Long-Term Neuro-Symbolic Memory
- Title(参考訳): 長期記憶を用いたマルチモーダルエージェント推論
- Authors: Rongjie Jiang, Jianwei Wang, Gengda Zhao, Chengyang Luo, Kai Wang, Wenjie Zhang,
- Abstract要約: NS-Mem(NS-Mem)は、マルチモーダルエージェント推論の進歩を目的とした長期記憶フレームワークである。
実世界のマルチモーダル推論ベンチマークの実験では、Neural-Symbolic Memoryは全体の推論精度を平均4.35%改善している。
- 参考スコア(独自算出の注目度): 7.934989469945716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in large language models have driven the emergence of intelligent agents operating in open-world, multimodal environments. To support long-term reasoning, such agents are typically equipped with external memory systems. However, most existing multimodal agent memories rely primarily on neural representations and vector-based retrieval, which are well-suited for inductive, intuitive reasoning but fundamentally limited in supporting analytical, deductive reasoning critical for real-world decision making. To address this limitation, we propose NS-Mem, a long-term neuro-symbolic memory framework designed to advance multimodal agent reasoning by integrating neural memory with explicit symbolic structures and rules. Specifically, NS-Mem is operated around three core components of a memory system: (1) a three-layer memory architecture that consists episodic layer, semantic layer and logic rule layer, (2) a memory construction and maintenance mechanism implemented by SK-Gen that automatically consolidates structured knowledge from accumulated multimodal experiences and incrementally updates both neural representations and symbolic rules, and (3) a hybrid memory retrieval mechanism that combines similarity-based search with deterministic symbolic query functions to support structured reasoning. Experiments on real-world multimodal reasoning benchmarks demonstrate that Neural-Symbolic Memory achieves an average 4.35% improvement in overall reasoning accuracy over pure neural memory systems, with gains of up to 12.5% on constrained reasoning queries, validating the effectiveness of NS-Mem.
- Abstract(参考訳): 大規模言語モデルの最近の進歩は、オープンワールド、マルチモーダル環境で動作するインテリジェントエージェントの出現を促している。
長期的な推論をサポートするため、このようなエージェントは通常、外部メモリシステムを備えている。
しかし、既存のほとんどのマルチモーダルエージェント記憶は、主に神経表現とベクトルベースの検索に依存しており、帰納的、直観的推論に適しているが、実世界の意思決定に不可欠な分析的、演能的推論をサポートするのに根本的に制限されている。
この制限に対処するために、ニューラルネットワークと明示的なシンボル構造と規則を統合することで、マルチモーダルエージェント推論を促進するために設計された、長期にわたるニューラルシンボリックメモリフレームワークNS-Memを提案する。
具体的には,(1)エピソード層,セマンティック層,ロジックルール層から構成される3層メモリアーキテクチャ,(2)蓄積されたマルチモーダル体験から構造化知識を自動的に統合し,ニューラルネットワークとシンボリックルールの両方を漸進的に更新するSK-Genによって実装されたメモリ構築および保守機構,(3)類似性に基づく検索と決定論的シンボリッククエリ機能を組み合わせたハイブリッドメモリ検索機構,の3つのコアコンポーネントを中心に動作する。
実世界のマルチモーダル推論ベンチマークの実験では、ニューラル・シンボリックメモリは純粋なニューラルメモリシステムよりも平均4.35%改善され、制約付き推論クエリで最大12.5%向上し、NS-Memの有効性が検証された。
関連論文リスト
- FadeMem: Biologically-Inspired Forgetting for Efficient Agent Memory [4.608947574766633]
本稿では,人間の認知効率を反映した能動的忘れ機構を組み込んだ,生物学的にインスパイアされたエージェントメモリアーキテクチャであるFadeMemを提案する。
マルチセッションチャット, LoCoMo, LTI-Benchの実験では, ストレージの45%削減により, 優れたマルチホップ推論と検索が可能となった。
論文 参考訳(メタデータ) (2026-01-26T16:12:54Z) - Improving Multi-step RAG with Hypergraph-based Memory for Long-Context Complex Relational Modeling [83.29209853451697]
多段階検索強化世代(RAG)は,大規模言語モデル(LLM)の拡張戦略として広く採用されている。
我々はHGMemというハイパーグラフベースのメモリ機構を導入し、複雑な推論とグローバルな理解のためにメモリの概念を動的に表現的構造に拡張する。
提案手法では,ハイパーエッジが異なるメモリ単位に対応するハイパーグラフとして表現され,メモリ内での高次相互作用の進行的形成を可能にする。
論文 参考訳(メタデータ) (2025-12-30T03:13:10Z) - AI Meets Brain: Memory Systems from Cognitive Neuroscience to Autonomous Agents [69.39123054975218]
メモリは過去と未来の重要なネクサスブリッジとして機能する。
自律エージェントに関する最近の研究は、認知神経科学に基づいて効率的な記憶を設計することに集中している。
論文 参考訳(メタデータ) (2025-12-29T10:01:32Z) - MemGen: Weaving Generative Latent Memory for Self-Evolving Agents [57.1835920227202]
本稿では,エージェントに人間的な認知機能を持たせる動的生成記憶フレームワークであるMemGenを提案する。
MemGenは、エージェントが推論を通して潜在記憶をリコールし、増大させ、記憶と認知の密接なサイクルを生み出すことを可能にする。
論文 参考訳(メタデータ) (2025-09-29T12:33:13Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - Slow manifolds in recurrent networks encode working memory efficiently
and robustly [0.0]
ワーキングメモリ(working memory)は、潜在情報の保存と操作を短時間で行う認知機能である。
作業メモリのネットワークレベルメカニズムを調べるために,トップダウンモデリング手法を用いる。
論文 参考訳(メタデータ) (2021-01-08T18:47:02Z) - Triple Memory Networks: a Brain-Inspired Method for Continual Learning [35.40452724755021]
ニューラルネットワークは、新しいタスクを学ぶ際にパラメータを調整するが、古いタスクをうまく実行できない。
脳は破滅的な干渉なしに新しい経験を継続的に学習する能力を持っている。
このような脳戦略に触発されて、連続学習のための三重記憶ネットワーク(TMN)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-03-06T11:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。