論文の概要: Does Memory Need Graphs? A Unified Framework and Empirical Analysis for Long-Term Dialog Memory
- arxiv url: http://arxiv.org/abs/2601.01280v1
- Date: Sat, 03 Jan 2026 20:39:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.16228
- Title: Does Memory Need Graphs? A Unified Framework and Empirical Analysis for Long-Term Dialog Memory
- Title(参考訳): メモリはグラフを必要とするか? 長期記憶のための統一フレームワークと実証分析
- Authors: Sen Hu, Yuxiang Wei, Jiaxin Ran, Zhiyuan Yao, Lei Zou,
- Abstract要約: 本稿では,長期記憶アーキテクチャの実験的なシステム指向分析について述べる。
ダイアログメモリシステムをコアコンポーネントに分解する統合フレームワークを導入し,グラフベースと非グラフアプローチの両方をサポートする。
- 参考スコア(独自算出の注目度): 12.341856498465615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph structures are increasingly used in dialog memory systems, but empirical findings on their effectiveness remain inconsistent, making it unclear which design choices truly matter. We present an experimental, system-oriented analysis of long-term dialog memory architectures. We introduce a unified framework that decomposes dialog memory systems into core components and supports both graph-based and non-graph approaches. Under this framework, we conduct controlled, stage-wise experiments on LongMemEval and HaluMem, comparing common design choices in memory representation, organization, maintenance, and retrieval. Our results show that many performance differences are driven by foundational system settings rather than specific architectural innovations. Based on these findings, we identify stable and reliable strong baselines for future dialog memory research.
- Abstract(参考訳): グラフ構造はダイアログメモリシステムでますます使われているが、その有効性に関する実証的な発見は相容れないままであり、どの設計選択が本当に重要であるかははっきりしない。
本稿では,長期記憶アーキテクチャの実験的なシステム指向分析について述べる。
ダイアログメモリシステムをコアコンポーネントに分解する統合フレームワークを導入し,グラフベースと非グラフアプローチの両方をサポートする。
このフレームワークでは、LongMemEvalとHaluMemのステージワイドな実験を行い、メモリ表現、組織、保守、検索における一般的な設計選択を比較します。
以上の結果から,性能の違いの多くは,特定のアーキテクチャの革新ではなく,基本的なシステム設定によって引き起こされていることが明らかとなった。
これらの結果から,今後のダイアログメモリ研究において,安定かつ信頼性の高い強力なベースラインを同定する。
関連論文リスト
- EverMemOS: A Self-Organizing Memory Operating System for Structured Long-Horizon Reasoning [42.339841548168565]
大きな言語モデル(LLM)は、長期の対話エージェントとしてますますデプロイされているが、その限られたコンテキストウィンドウは、拡張された相互作用よりもコヒーレントな振舞いを維持するのが困難である。
本稿では,EverMemOSについて紹介する。EverMemOSは,計算メモリにエミュレートされたライフサイクルを実装した自己組織型メモリオペレーティングシステムである。
EverMemOSは、メモリ拡張推論タスクで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2026-01-05T14:39:43Z) - Memory in the Age of AI Agents [217.9368190980982]
この研究は、現在のエージェントメモリ研究の最新の展望を提供することを目的としている。
我々は,エージェントメモリ,すなわちトークンレベル,パラメトリック,潜時メモリの3つの支配的実現を同定する。
実用的な開発を支援するため、メモリベンチマークとオープンソースフレームワークの包括的な概要をコンパイルする。
論文 参考訳(メタデータ) (2025-12-15T17:22:34Z) - LiCoMemory: Lightweight and Cognitive Agentic Memory for Efficient Long-Term Reasoning [15.189701702660821]
LiCoMemoryはリアルタイム更新と検索のためのエンドツーエンドのエージェントメモリフレームワークである。
CoGraphは、エンティティとリレーションをセマンティックインデックス層として利用する、軽量な階層グラフである。
長期の対話ベンチマークであるLoCoMoとLongMemEvalの実験では、LiCoMemoryは時間的推論、マルチセッション一貫性、検索効率において確立されたベースラインを上回るだけでなく、更新レイテンシも顕著に低減している。
論文 参考訳(メタデータ) (2025-11-03T11:02:40Z) - Cognitively-Inspired Episodic Memory Architectures for Accurate and Efficient Character AI [1.0742675209112622]
大規模な言語モデルは、対話システムに歴史的な文字を具現化することを約束するが、既存のアプローチは重要なトレードオフに直面している。
本稿では、オフラインデータ拡張と、構造化エピソードメモリからの効率的な並列検索により、この緊張を解消するアーキテクチャを提案する。
本システムでは,2段階検索で0.52秒の即時生成を実現し,生涯データを1,774個の濃厚な初対人記憶に変換する。
論文 参考訳(メタデータ) (2025-11-01T02:26:16Z) - Evaluating Long-Term Memory for Long-Context Question Answering [100.1267054069757]
質問応答タスクにアノテートした合成長文対話のベンチマークであるLoCoMoを用いて,メモリ拡張手法の体系的評価を行う。
以上の結果から,メモリ拡張アプローチによりトークン使用率が90%以上削減され,競争精度が向上した。
論文 参考訳(メタデータ) (2025-10-27T18:03:50Z) - Structured Memory Mechanisms for Stable Context Representation in Large Language Models [16.929937978584917]
モデルは明示的なメモリユニット、ゲート書き込み機構、アテンションベースの読み込みモジュールを統合している。
メモリコンテンツの動的更新を可能にするために、忘れ機能が導入される。
このモデルは、テキスト生成の一貫性、マルチターン質問応答の安定性、コンテキスト間推論の精度において明らかな優位性を実現する。
論文 参考訳(メタデータ) (2025-05-28T22:49:04Z) - From Single to Multi-Granularity: Toward Long-Term Memory Association and Selection of Conversational Agents [79.87304940020256]
大言語モデル(LLM)は会話エージェントで広く採用されている。
MemGASは、多粒度アソシエーション、適応選択、検索を構築することにより、メモリ統合を強化するフレームワークである。
4つの長期メモリベンチマークの実験により、MemGASは質問応答と検索タスクの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-26T06:13:07Z) - SCM: Enhancing Large Language Model with Self-Controlled Memory Framework [54.33686574304374]
大きな言語モデル(LLM)は、長い入力を処理できないため、重要な歴史的情報が失われる。
本稿では,LLMが長期記憶を維持し,関連する情報をリコールする能力を高めるための自己制御メモリ(SCM)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-26T07:25:31Z) - Ranking Enhanced Dialogue Generation [77.8321855074999]
対話履歴を効果的に活用する方法は、マルチターン対話生成において重要な問題である。
これまでの研究は通常、歴史をモデル化するために様々なニューラルネットワークアーキテクチャを使用していた。
本稿では,ランキング拡張対話生成フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-13T01:49:56Z) - ORD: Object Relationship Discovery for Visual Dialogue Generation [60.471670447176656]
視覚対話生成のためのオブジェクトインタラクションを保存するためのオブジェクト関係探索(ORD)フレームワークを提案する。
階層的なグラフ畳み込みネットワーク (HierGCN) が提案され、オブジェクトノードと近傍の関係を局所的に保持し、オブジェクトとオブジェクトの接続をグローバルに洗練する。
実験により,視覚的関係の文脈情報を活用することにより,対話の質を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2020-06-15T12:25:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。