論文の概要: Implicit Graph, Explicit Retrieval: Towards Efficient and Interpretable Long-horizon Memory for Large Language Models
- arxiv url: http://arxiv.org/abs/2601.03417v1
- Date: Tue, 06 Jan 2026 21:10:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 02:15:23.073449
- Title: Implicit Graph, Explicit Retrieval: Towards Efficient and Interpretable Long-horizon Memory for Large Language Models
- Title(参考訳): Inlicit Graph, Explicit Retrieval:大規模言語モデルのための効率的かつ解釈可能なLong-Horizonメモリを目指して
- Authors: Xin Zhang, Kailai Yang, Hao Li, Chenyue Li, Qiyu Wei, Sophia Ananiadou,
- Abstract要約: 暗黙的なグラフメモリと明示的なサブグラフ検索を組み合わせたメモリフレームワークであるLatntGraphMemを提案する。
LatentGraphMemは、安定性と効率性のためにグラフ構造化メモリを潜時空間に格納する。
複数のモデルスケールにわたるロングホライゾンベンチマークの実験によると、LatentGraphMemは、明示的なグラフと潜在メモリのベースラインを一貫して上回っている。
- 参考スコア(独自算出の注目度): 26.694294747866834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Long-horizon applications increasingly require large language models (LLMs) to answer queries when relevant evidence is sparse and dispersed across very long contexts. Existing memory systems largely follow two paradigms: explicit structured memories offer interpretability but often become brittle under long-context overload, while latent memory mechanisms are efficient and stable yet difficult to inspect. We propose LatentGraphMem, a memory framework that combines implicit graph memory with explicit subgraph retrieval. LatentGraphMem stores a graph-structured memory in latent space for stability and efficiency, and exposes a task-specific subgraph retrieval interface that returns a compact symbolic subgraph under a fixed budget for downstream reasoning and human inspection. During training, an explicit graph view is materialized to interface with a frozen reasoner for question-answering supervision. At inference time, retrieval is performed in latent space and only the retrieved subgraph is externalized. Experiments on long-horizon benchmarks across multiple model scales show that LatentGraphMem consistently outperforms representative explicit-graph and latent-memory baselines, while enabling parameter-efficient adaptation and flexible scaling to larger reasoners without introducing large symbolic artifacts.
- Abstract(参考訳): ロングホライゾンアプリケーションは、関係するエビデンスが非常に長いコンテキストに分散している場合、問い合わせに答えるために大きな言語モデル(LLM)を必要としている。
既存のメモリシステムは2つのパラダイムに大きく従っている: 明示的な構造化メモリは解釈可能性を提供するが、長いコンテキストオーバーロード下では不安定になることが多い。
暗黙的なグラフメモリと明示的なサブグラフ検索を組み合わせたメモリフレームワークであるLatntGraphMemを提案する。
LatentGraphMemは、安定と効率のためにグラフ構造化メモリを潜時空間に格納し、ダウンストリーム推論とヒューマンインスペクションのための固定予算の下でコンパクトなシンボル付きサブグラフを返すタスク固有のサブグラフ検索インターフェースを公開する。
トレーニング中、明示的なグラフビューが具体化され、質問応答監視のための凍結推論器とインターフェースされる。
推測時には、潜時空間で検索を行い、検索したサブグラフのみを外部化する。
複数のモデルスケールにわたるロングホライズンベンチマークの実験では、LatentGraphMemは明らかにグラフとラテントメモリのベースラインを一貫して上回り、大きなシンボルのアーティファクトを導入することなく、パラメータ効率のよい適応とフレキシブルなスケーリングを実現している。
関連論文リスト
- MAGMA: A Multi-Graph based Agentic Memory Architecture for AI Agents [4.4848347718892425]
Memory-Augmented Generation (MAG) は、Large Language Modelsを外部メモリで拡張し、長文推論をサポートする。
既存のアプローチは、モノリシックなメモリストアに対するセマンティックな類似性に大きく依存しており、時間的、因果的、実体的な情報を絡み合わせる。
本稿では, 意味, 時間, 因果, 実体グラフにまたがる各メモリ項目を表すマルチグラフエージェントメモリアーキテクチャであるMAGMAを提案する。
論文 参考訳(メタデータ) (2026-01-06T18:29:43Z) - LiCoMemory: Lightweight and Cognitive Agentic Memory for Efficient Long-Term Reasoning [15.189701702660821]
LiCoMemoryはリアルタイム更新と検索のためのエンドツーエンドのエージェントメモリフレームワークである。
CoGraphは、エンティティとリレーションをセマンティックインデックス層として利用する、軽量な階層グラフである。
長期の対話ベンチマークであるLoCoMoとLongMemEvalの実験では、LiCoMemoryは時間的推論、マルチセッション一貫性、検索効率において確立されたベースラインを上回るだけでなく、更新レイテンシも顕著に低減している。
論文 参考訳(メタデータ) (2025-11-03T11:02:40Z) - Divide by Question, Conquer by Agent: SPLIT-RAG with Question-Driven Graph Partitioning [62.640169289390535]
SPLIT-RAGは、質問駆動セマンティックグラフ分割と協調サブグラフ検索による制限に対処するマルチエージェントRAGフレームワークである。
革新的なフレームワークは、まずリンク情報のセマンティック分割を作成し、次にタイプ特化知識ベースを使用してマルチエージェントRAGを実現する。
属性対応グラフセグメンテーションは、知識グラフを意味的に一貫性のあるサブグラフに分割し、サブグラフが異なるクエリタイプと整合することを保証する。
階層的なマージモジュールは、論理的検証を通じて、部分グラフ由来の解答間の矛盾を解消する。
論文 参考訳(メタデータ) (2025-05-20T06:44:34Z) - TOBUGraph: Knowledge Graph-Based Retrieval for Enhanced LLM Performance Beyond RAG [3.3593672127922836]
TOBUGraphは、構造化されていないデータから知識グラフを構築するグラフベースの検索フレームワークである。
構造化された知識とデータ間の多様な関係を抽出し、RAGのテキストとテキストの類似性を超えた。
ToBUGraphの有効性を実証する。TOBUは、個人記憶の組織化と検索のための実世界のアプリケーションである。
論文 参考訳(メタデータ) (2024-12-06T22:05:39Z) - Topology-aware Embedding Memory for Continual Learning on Expanding Networks [63.35819388164267]
本稿では,メモリリプレイ技術を用いて,メモリ爆発問題に対処する枠組みを提案する。
Topology-aware Embedding Memory (TEM) を用いたPDGNNは最先端技術よりも優れている。
論文 参考訳(メタデータ) (2024-01-24T03:03:17Z) - LaMemo: Language Modeling with Look-Ahead Memory [50.6248714811912]
右側トークンへの漸進的参加により再帰記憶を向上させるLook-Ahead Memory(LaMemo)を提案する。
LaMemoは、メモリ長に比例した追加のオーバーヘッドで、双方向の注意とセグメントの再発を受け入れる。
広く使われている言語モデリングベンチマークの実験は、異なる種類のメモリを備えたベースラインよりも優れていることを示した。
論文 参考訳(メタデータ) (2022-04-15T06:11:25Z) - GNNAutoScale: Scalable and Expressive Graph Neural Networks via
Historical Embeddings [51.82434518719011]
GNNAutoScale(GAS)は、任意のメッセージパスGNNを大規模グラフにスケールするためのフレームワークである。
ガスは、前回のトレーニングの繰り返しから過去の埋め込みを利用して計算グラフのサブツリー全体を掘り起こします。
ガスは大規模グラフ上で最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2021-06-10T09:26:56Z) - Learning to Ignore: Long Document Coreference with Bounded Memory Neural
Networks [65.3963282551994]
我々は、すべてのエンティティをメモリに保持することは不要であると主張し、同時に少数のエンティティだけを追跡するメモリ拡張ニューラルネットワークを提案する。
a)OntoNotesとLitBankの高メモリ・計算要求モデルと競合する傾向にあり,(b)ルールベースの戦略よりも容易に効率の良いメモリ管理戦略を学習できることを示す。
論文 参考訳(メタデータ) (2020-10-06T15:16:31Z) - Video Object Segmentation with Episodic Graph Memory Networks [198.74780033475724]
セグメント化モデルを更新する学習」という新しいアイデアに対処するために,グラフメモリネットワークが開発された。
我々は、完全に連結されたグラフとして構成されたエピソードメモリネットワークを利用して、フレームをノードとして保存し、エッジによってフレーム間の相関をキャプチャする。
提案したグラフメモリネットワークは、一発とゼロショットの両方のビデオオブジェクトセグメンテーションタスクをうまく一般化できる、巧妙だが原則化されたフレームワークを提供する。
論文 参考訳(メタデータ) (2020-07-14T13:19:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。