論文の概要: A Simple Yet Strong Baseline for Long-Term Conversational Memory of LLM Agents
- arxiv url: http://arxiv.org/abs/2511.17208v1
- Date: Fri, 21 Nov 2025 12:41:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:19.018527
- Title: A Simple Yet Strong Baseline for Long-Term Conversational Memory of LLM Agents
- Title(参考訳): LLMエージェントの長期会話記憶のためのシンプルだが強力なベースライン
- Authors: Sizhe Zhou,
- Abstract要約: LLMベースの会話エージェントは、多くのセッションにおいてコヒーレントでパーソナライズされたインタラクションを維持するのに依然として苦労している。
ニューダビッドソンのイベントセマンティクスに触発され、会話履歴を短く、イベントのような命題として表現するイベント中心の代替案を提案する。
我々の設計は、情報を非圧縮形式で保存し、より損失の多いものよりもアクセスしやすくすることを目的としています。
- 参考スコア(独自算出の注目度): 4.706565675142042
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LLM-based conversational agents still struggle to maintain coherent, personalized interaction over many sessions: fixed context windows limit how much history can be kept in view, and most external memory approaches trade off between coarse retrieval over large chunks and fine-grained but fragmented views of the dialogue. Motivated by neo-Davidsonian event semantics, we propose an event-centric alternative that represents conversational history as short, event-like propositions which bundle together participants, temporal cues, and minimal local context, rather than as independent relation triples or opaque summaries. In contrast to work that aggressively compresses or forgets past content, our design aims to preserve information in a non-compressive form and make it more accessible, rather than more lossy. Concretely, we instruct an LLM to decompose each session into enriched elementary discourse units (EDUs) -- self-contained statements with normalized entities and source turn attributions -- and organize sessions, EDUs, and their arguments in a heterogeneous graph that supports associative recall. On top of this representation we build two simple retrieval-based variants that use dense similarity search and LLM filtering, with an optional graph-based propagation step to connect and aggregate evidence across related EDUs. Experiments on the LoCoMo and LongMemEval$_S$ benchmarks show that these event-centric memories match or surpass strong baselines, while operating with much shorter QA contexts. Our results suggest that structurally simple, event-level memory provides a principled and practical foundation for long-horizon conversational agents. Our code and data will be released at https://github.com/KevinSRR/EMem.
- Abstract(参考訳): LLMベースの会話エージェントは、多くのセッションにおいて一貫性のあるパーソナライズされたインタラクションを維持するのに依然として苦労している。
ニューダビッドソンのイベントセマンティクスに触発され,会話履歴を,独立した三重項や不透明な要約ではなく,参加者,時間的手がかり,最小限の局所的文脈を束ねた,短くてイベントのような命題として表現するイベント中心の代替案を提案する。
過去のコンテンツを積極的に圧縮したり忘れたりする作業とは対照的に、私たちのデザインは、情報を非圧縮形式で保存し、より損失の多いものよりもアクセスしやすくすることを目的としています。
具体的には,各セッションを,正規化されたエンティティとソースターン属性を持つ自己完結したステートメント(EDU)に分解し,セッション,EDU,およびそれらの引数を,連想的リコールをサポートする異種グラフにまとめるようにLLMに指示する。
この表現の上に、密接な類似性探索とLLMフィルタリングを利用する2つの単純な検索ベースの変種を構築し、関連するEDUを結合してエビデンスを集約するグラフベースの伝播ステップをオプションで選択する。
LoCoMoとLongMemEval$_S$ベンチマークの実験では、これらのイベント中心のメモリは、より短いQAコンテキストで動作しながら、強いベースラインに一致または超えている。
以上の結果から,構造的に単純でイベントレベルのメモリは,長期会話エージェントの原理的かつ実践的な基盤となることが示唆された。
私たちのコードとデータはhttps://github.com/KevinSRR/EMem.comで公開されます。
関連論文リスト
- Beyond Fact Retrieval: Episodic Memory for RAG with Generative Semantic Workspaces [5.110309385104824]
大きな言語モデル(LLM)は、長いコンテキスト推論において根本的な課題に直面します。
現在のソリューションでは、エピソードイベントを通じてエンティティを追跡するのに必要な、時空間で記述された物語表現を構築することができない。
我々は,ニューロインスパイアされた生成記憶フレームワークである textbf Generative Semantic Workspace (GSW) を提案する。
論文 参考訳(メタデータ) (2025-11-10T19:59:34Z) - SGMem: Sentence Graph Memory for Long-Term Conversational Agents [14.89396085814917]
チャンク単位内の文レベルグラフとして対話を表現するSGMem(Sentence Graph Memory)を紹介する。
SGMem は, 長期会話型質問応答において, 精度を向上し, 高いベースラインを向上することを示す。
論文 参考訳(メタデータ) (2025-09-25T14:21:44Z) - From Single to Multi-Granularity: Toward Long-Term Memory Association and Selection of Conversational Agents [79.87304940020256]
大言語モデル(LLM)は会話エージェントで広く採用されている。
MemGASは、多粒度アソシエーション、適応選択、検索を構築することにより、メモリ統合を強化するフレームワークである。
4つの長期メモリベンチマークの実験により、MemGASは質問応答と検索タスクの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-26T06:13:07Z) - Toward Multi-Session Personalized Conversation: A Large-Scale Dataset and Hierarchical Tree Framework for Implicit Reasoning [30.54506564763053]
2500のサンプルを持つ大規模長期データセットであるImplexConvを紹介し、それぞれに約100の会話セッションを含む。
また,会話履歴を複数のレベルの要約に構造化する新しい階層木フレームワークであるTaciTreeを提案する。
論文 参考訳(メタデータ) (2025-03-10T07:59:41Z) - FragRel: Exploiting Fragment-level Relations in the External Memory of Large Language Models [54.13671100638092]
断片接続型階層型メモリベース大規模言語モデル(LLM)を提案する。
外部メモリにおけるフラグメントレベルの関係を定式化し、異なるテキストタイプに対していくつかのインスタンスを提示する。
長いストーリー理解、リポジトリレベルのコード生成、長期チャットにこれらの関係を組み込むことの利点を検証する。
論文 参考訳(メタデータ) (2024-06-05T09:31:37Z) - Recursively Summarizing Enables Long-Term Dialogue Memory in Large Language Models [30.48902594738911]
長い会話をすると、大きな言語モデル(LLM)は過去の情報を思い出さず、一貫性のない応答を生成する傾向がある。
本稿では,長期記憶能力を高めるために,大規模言語モデル(LLM)を用いて要約/メモリを生成することを提案する。
論文 参考訳(メタデータ) (2023-08-29T04:59:53Z) - UniMC: A Unified Framework for Long-Term Memory Conversation via
Relevance Representation Learning [15.313416157905685]
We propose a Unified framework for Long-term Memory Conversations (UniMC)。
主タスクを確率グラフに基づいて3つのサブタスクに分解する。
各サブタスクは、クエリとメモリ間の関連性を計算するための表現を学習する。
論文 参考訳(メタデータ) (2023-06-18T12:30:50Z) - SCM: Enhancing Large Language Model with Self-Controlled Memory Framework [54.33686574304374]
大きな言語モデル(LLM)は、長い入力を処理できないため、重要な歴史的情報が失われる。
本稿では,LLMが長期記憶を維持し,関連する情報をリコールする能力を高めるための自己制御メモリ(SCM)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-26T07:25:31Z) - History-Aware Hierarchical Transformer for Multi-session Open-domain
Dialogue System [59.78425104243993]
マルチセッションオープンドメイン対話のための履歴認識階層変換器(HAHT)を提案する。
HAHTは歴史会話の長期記憶を維持し、歴史情報を利用して現在の会話状況を理解する。
大規模マルチセッション会話データセットの実験結果は,提案したHAHTモデルがベースラインモデルより一貫して優れていることを示唆している。
論文 参考訳(メタデータ) (2023-02-02T06:54:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。