論文の概要: SGMem: Sentence Graph Memory for Long-Term Conversational Agents
- arxiv url: http://arxiv.org/abs/2509.21212v1
- Date: Thu, 25 Sep 2025 14:21:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.977366
- Title: SGMem: Sentence Graph Memory for Long-Term Conversational Agents
- Title(参考訳): SGMem: 長期会話エージェントのための文グラフメモリ
- Authors: Yaxiong Wu, Yongyue Zhang, Sheng Liang, Yong Liu,
- Abstract要約: チャンク単位内の文レベルグラフとして対話を表現するSGMem(Sentence Graph Memory)を紹介する。
SGMem は, 長期会話型質問応答において, 精度を向上し, 高いベースラインを向上することを示す。
- 参考スコア(独自算出の注目度): 14.89396085814917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Long-term conversational agents require effective memory management to handle dialogue histories that exceed the context window of large language models (LLMs). Existing methods based on fact extraction or summarization reduce redundancy but struggle to organize and retrieve relevant information across different granularities of dialogue and generated memory. We introduce SGMem (Sentence Graph Memory), which represents dialogue as sentence-level graphs within chunked units, capturing associations across turn-, round-, and session-level contexts. By combining retrieved raw dialogue with generated memory such as summaries, facts and insights, SGMem supplies LLMs with coherent and relevant context for response generation. Experiments on LongMemEval and LoCoMo show that SGMem consistently improves accuracy and outperforms strong baselines in long-term conversational question answering.
- Abstract(参考訳): 長期会話エージェントは、大きな言語モデル(LLM)のコンテキストウィンドウを超える対話履歴を扱うために効果的なメモリ管理を必要とする。
事実抽出や要約に基づく既存の手法は冗長性を低下させるが、対話や生成された記憶の様々な粒度の関連情報を整理・取得するのに苦労する。
我々は,SGMem(Sentence Graph Memory)を導入し,文レベルグラフをチャンク単位内の文レベルグラフとして表現し,ターンレベル,ラウンドレベル,セッションレベルのコンテキスト間の関連をキャプチャする。
検索した生の対話と要約、事実、洞察などの生成された記憶を組み合わせることで、SGMemは、応答生成のための一貫性と関連するコンテキストをLLMに提供する。
LongMemEvalとLoCoMoの実験では、SGMemは一貫して精度を向上し、長期会話型質問応答において強いベースラインを上回ります。
関連論文リスト
- Towards Multi-Granularity Memory Association and Selection for Long-Term Conversational Agents [73.77930932005354]
我々は,多粒度アソシエーション,適応選択,検索を構築することで,メモリ統合を向上するフレームワークであるMemGASを提案する。
MemGASは多粒度メモリユニットに基づいており、ガウス混合モデルを用いて新しい記憶と過去の記憶をクラスタリングし関連付けている。
4つの長期メモリベンチマークの実験により、MemGASは質問応答と検索タスクの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-26T06:13:07Z) - Evaluating Very Long-Term Conversational Memory of LLM Agents [95.84027826745609]
我々は,高品質で長期的な対話を生成するための,マシン・ヒューマン・パイプラインを導入する。
我々は、各エージェントに画像の共有と反応の能力を持たせる。
生成した会話は、長距離一貫性のために人間のアノテーションによって検証され、編集される。
論文 参考訳(メタデータ) (2024-02-27T18:42:31Z) - Recursively Summarizing Enables Long-Term Dialogue Memory in Large Language Models [30.48902594738911]
長い会話をすると、大きな言語モデル(LLM)は過去の情報を思い出さず、一貫性のない応答を生成する傾向がある。
本稿では,長期記憶能力を高めるために,大規模言語モデル(LLM)を用いて要約/メモリを生成することを提案する。
論文 参考訳(メタデータ) (2023-08-29T04:59:53Z) - SCM: Enhancing Large Language Model with Self-Controlled Memory Framework [54.33686574304374]
大きな言語モデル(LLM)は、長い入力を処理できないため、重要な歴史的情報が失われる。
本稿では,LLMが長期記憶を維持し,関連する情報をリコールする能力を高めるための自己制御メモリ(SCM)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-26T07:25:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。