論文の概要: SYNAPSE: Empowering LLM Agents with Episodic-Semantic Memory via Spreading Activation
- arxiv url: http://arxiv.org/abs/2601.02744v1
- Date: Tue, 06 Jan 2026 06:19:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.825992
- Title: SYNAPSE: Empowering LLM Agents with Episodic-Semantic Memory via Spreading Activation
- Title(参考訳): SynAPSE: スプレッド・アクティベーションによるエピソード・セマンティックメモリを用いたLLMエージェントの強化
- Authors: Hanqi Jiang, Junhao Chen, Yi Pan, Ling Chen, Weihang You, Yifan Zhou, Ruidong Zhang, Yohannes Abate, Tianming Liu,
- Abstract要約: プリコンパイルされたリンクではなく静的を超越する統一メモリアーキテクチャであるSynapseを紹介する。
この結果から,Synapseは時間的およびマルチホップの複雑な推論タスクにおいて,最先端の手法を著しく上回ることがわかった。
私たちのコードとデータは受け入れ次第公開されます。
- 参考スコア(独自算出の注目度): 29.545442480332515
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While Large Language Models (LLMs) excel at generalized reasoning, standard retrieval-augmented approaches fail to address the disconnected nature of long-term agentic memory. To bridge this gap, we introduce Synapse (Synergistic Associative Processing Semantic Encoding), a unified memory architecture that transcends static vector similarity. Drawing from cognitive science, Synapse models memory as a dynamic graph where relevance emerges from spreading activation rather than pre-computed links. By integrating lateral inhibition and temporal decay, the system dynamically highlights relevant sub-graphs while filtering interference. We implement a Triple Hybrid Retrieval strategy that fuses geometric embeddings with activation-based graph traversal. Comprehensive evaluations on the LoCoMo benchmark show that Synapse significantly outperforms state-of-the-art methods in complex temporal and multi-hop reasoning tasks, offering a robust solution to the "Contextual Tunneling" problem. Our code and data will be made publicly available upon acceptance.
- Abstract(参考訳): LLM(Large Language Models)は、一般的な推論において優れているが、標準的な検索強化アプローチでは、長期的なエージェントメモリの非連結性に対処できない。
このギャップを埋めるために、静的ベクトル類似性を超越した統一メモリアーキテクチャであるSynapse(Synergistic Associative Processing Semantic Encoding)を導入する。
認知科学を参考に、Synapseはメモリを動的グラフとしてモデル化する。
側方抑制と時間減衰を統合することにより、システムは干渉をフィルタリングしながら関連する部分グラフを動的にハイライトする。
アクティベーションに基づくグラフトラバーサルと幾何学的埋め込みを融合させる三重ハイブリッド検索戦略を実装した。
LoCoMoベンチマークの総合的な評価によると、Synapseは複雑な時間的およびマルチホップ推論タスクにおいて最先端の手法を著しく上回り、"コンテキストトンネル"問題に対する堅牢な解決策を提供する。
私たちのコードとデータは受け入れ次第公開されます。
関連論文リスト
- Unleashing Degradation-Carrying Features in Symmetric U-Net: Simpler and Stronger Baselines for All-in-One Image Restoration [52.82397287366076]
オールインワン画像復元は、統合された枠組み内で様々な劣化(ノイズ、ぼかし、悪天候など)を扱うことを目的としている。
本研究では, 優れた特徴抽出法により, 劣化伝達情報を本質的にエンコードする, 重要な知見を明らかにする。
我々の対称設計は固有の劣化信号を頑健に保存し、スキップ接続に単純な加法融合を施す。
論文 参考訳(メタデータ) (2025-12-11T12:20:31Z) - Topology Identification and Inference over Graphs [61.06365536861156]
グラフ上で進化するプロセスのトポロジの同定と推論は、脳、輸送、金融、電力、および社会的および情報ネットワークを含むタイムリーな応用に現れる。
本章では,多次元データに対するグラフトポロジ同定と統計的推測手法の概要について述べる。
論文 参考訳(メタデータ) (2025-12-11T00:47:09Z) - Hybrid Fuzzing with LLM-Guided Input Mutation and Semantic Feedback [0.0]
本稿では,静的および動的解析をLarge Language Model(LLM)誘導入力変異と意味フィードバックと統合したハイブリッドファジリングフレームワークを提案する。
本手法は,最先端のファジィよりも高速な時間対第一のバグ,意味的多様性の向上,およびユニークなバグの競合数を実現する。
論文 参考訳(メタデータ) (2025-11-06T02:38:24Z) - CAM: A Constructivist View of Agentic Memory for LLM-Based Reading Comprehension [55.29309306566238]
現在のLarge Language Models (LLM) は、長文文書を解釈する際に圧倒的な情報量に直面している。
この課題は、バニラLSMを自律的な読み出しエージェントに高めることができる凝集性メモリモジュールの必須性を高める。
我々はジャン・ピアジェの構成主義理論(Constructivist Theory)からインスピレーションを得て、エージェントメモリの3つの特性(構造化スキーマ、フレキシブルな同化、動的調節)を表現した。
論文 参考訳(メタデータ) (2025-10-07T02:16:30Z) - Wave-Based Semantic Memory with Resonance-Based Retrieval: A Phase-Aware Alternative to Vector Embedding Stores [51.56484100374058]
本稿では,波動パターン$psi(x) = A(x) eiphi(x)$として知識をモデル化し,共振に基づく干渉によってそれを検索する新しいフレームワークを提案する。
このアプローチは振幅情報と位相情報の両方を保存し、より表現的かつ堅牢な意味的類似性を実現する。
論文 参考訳(メタデータ) (2025-08-21T10:13:24Z) - HiCL: Hippocampal-Inspired Continual Learning [14.349317103576558]
HiCLは、海馬にインスパイアされたデュアルメモリ連続学習アーキテクチャである。
海馬回路にインスパイアされた要素を用いて、破滅的な忘れを緩和する方法を示す。
論文 参考訳(メタデータ) (2025-08-19T23:40:11Z) - PersonalAI: A Systematic Comparison of Knowledge Graph Storage and Retrieval Approaches for Personalized LLM agents [15.524189150821147]
大規模言語モデル (LLM) とRetrieval-Augmented Generation (RAG) の組み合わせは、複雑な長期的相互作用においてスケールできない。
LLM自体によって自動的に構築・更新される知識グラフに基づくフレキシブルな外部メモリフレームワークを提案する。
AriGraphアーキテクチャに基づいて、標準エッジと2種類のハイパーエッジの両方をサポートする新しいハイブリッドグラフ設計を導入する。
本稿では,TriviaQA,HotpotQA,DiaASQ-demonstratingの3つのベンチマークを用いて,メモリと検索の異なる構成でタスクに応じて最適な性能が得られることを示す。
論文 参考訳(メタデータ) (2025-06-20T13:52:15Z) - GUARDIAN: Safeguarding LLM Multi-Agent Collaborations with Temporal Graph Modeling [5.798273384241793]
大規模言語モデル (LLM) は、複雑な対話や多ターン対話を行えるインテリジェントエージェントの開発を可能にする。
GUARDIANは、GUARDing Intelligent Agent ColllaboratioNsにおいて、複数の安全上の懸念を検出し緩和する方法である。
論文 参考訳(メタデータ) (2025-05-25T17:15:55Z) - SynapticRAG: Enhancing Temporal Memory Retrieval in Large Language Models through Synaptic Mechanisms [8.787174594966492]
本稿では、時間的関連トリガーと生物学的に誘発されるシナプス伝達機構を組み合わせたシナプスRAGを提案する。
本手法では, 時間的関連トリガーとシナプス様刺激伝達を用いて, 関連する対話履歴を同定する。
4つのデータセットの実験では、SynapticRAGは最大14.66%までの複数のメトリクスで一貫した改善を達成している。
論文 参考訳(メタデータ) (2024-10-17T13:51:03Z) - TimeGraphs: Graph-based Temporal Reasoning [64.18083371645956]
TimeGraphsは階層的時間グラフとして動的相互作用を特徴付ける新しいアプローチである。
提案手法は,コンパクトなグラフベース表現を用いて相互作用をモデル化し,多種多様な時間スケールでの適応推論を可能にする。
我々は,サッカーシミュレータ,抵抗ゲーム,MOMA人間活動データセットなど,複雑でダイナミックなエージェントインタラクションを持つ複数のデータセット上でTimeGraphsを評価する。
論文 参考訳(メタデータ) (2024-01-06T06:26:49Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。