論文の概要: Generation-Based and Emotion-Reflected Memory Update: Creating the KEEM Dataset for Better Long-Term Conversation
- arxiv url: http://arxiv.org/abs/2601.05548v1
- Date: Fri, 09 Jan 2026 05:59:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.857932
- Title: Generation-Based and Emotion-Reflected Memory Update: Creating the KEEM Dataset for Better Long-Term Conversation
- Title(参考訳): ジェネレーションベースおよび感情反射型メモリ更新: 長期会話改善のためのKEEMデータセットの作成
- Authors: Jeonghyun Kang, Hongjin Kim, Harksoo Kim,
- Abstract要約: 本稿では,長期会話システムにおけるメモリ更新向上を目的とした,新しい世代ベースデータセットを提案する。
情緒的データと本質的なデータの両方でシステムのメモリをシームレスに更新することにより、我々のアプローチは深い共感を促進し、オープンドメインの会話において意味のある応答能力を高める。
- 参考スコア(独自算出の注目度): 12.913297153664972
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we introduce the Keep Emotional and Essential Memory (KEEM) dataset, a novel generation-based dataset designed to enhance memory updates in long-term conversational systems. Unlike existing approaches that rely on simple accumulation or operation-based methods, which often result in information conflicts and difficulties in accurately tracking a user's current state, KEEM dynamically generates integrative memories. This process not only preserves essential factual information but also incorporates emotional context and causal relationships, enabling a more nuanced understanding of user interactions. By seamlessly updating a system's memory with both emotional and essential data, our approach promotes deeper empathy and enhances the system's ability to respond meaningfully in open-domain conversations.
- Abstract(参考訳): 本研究では,長期会話システムにおけるメモリ更新向上を目的とした,新しい世代ベースデータセットであるKeep Emotional and Essential Memory(KEEM)データセットを紹介する。
単純な蓄積や操作ベースの手法に依存する既存のアプローチとは異なり、KEEMは統合記憶を動的に生成する。
このプロセスは、本質的な事実情報を保存するだけでなく、感情的な文脈や因果関係も含み、ユーザーインタラクションのより微妙な理解を可能にする。
情緒的データと本質的なデータの両方でシステムのメモリをシームレスに更新することにより、我々のアプローチは深い共感を促進し、オープンドメインの会話において意味のある応答能力を高める。
関連論文リスト
- Controllable Memory Usage: Balancing Anchoring and Innovation in Long-Term Human-Agent Interaction [35.20324450282101]
エージェントのメモリ依存を明示的かつユーザ制御可能な次元としてモデル化できることを示す。
textbfSteerable textbfMemory Agent, textttSteeMを提案する。
論文 参考訳(メタデータ) (2026-01-08T16:54:30Z) - Evo-Memory: Benchmarking LLM Agent Test-time Learning with Self-Evolving Memory [89.65731902036669]
Evo-Memoryは、大規模言語モデル(LLM)エージェントで自己進化型メモリを評価するための、ストリーミングベンチマークとフレームワークである。
10以上の代表的なメモリモジュールを評価し、10種類の多ターンゴール指向およびシングルターン推論およびQAデータセットで評価した。
論文 参考訳(メタデータ) (2025-11-25T21:08:07Z) - O-Mem: Omni Memory System for Personalized, Long Horizon, Self-Evolving Agents [60.1848551962911]
O-Memはアクティブユーザプロファイリングに基づく新しいメモリフレームワークである。
O-Memはペルソナ属性とトピック関連コンテキストの階層的検索をサポートする。
論文 参考訳(メタデータ) (2025-11-17T16:55:19Z) - Dynamic Affective Memory Management for Personalized LLM Agents [1.7600011132381626]
情緒的シナリオのための新しいメモリ管理システムを提案する。
本システムは,パーソナライズ,論理コヒーレンス,精度において優れた性能を発揮する。
我々の研究は、長期記憶システムの設計に関する新たな洞察を提供する。
論文 参考訳(メタデータ) (2025-10-31T12:12:51Z) - RGMem: Renormalization Group-based Memory Evolution for Language Agent User Profile [8.224917568034572]
物理における古典的再正規化群(RG)のイデオロギーに着想を得た自己進化型メモリフレームワークを提案する。
このフレームワークは対話履歴を複数のスケールで整理することができる。
私たちの研究の中核的な革新は、情報圧縮と出現のマルチスケールプロセスとしてのメモリ進化をモデル化することにあります。
論文 参考訳(メタデータ) (2025-10-18T08:16:46Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - Ever-Evolving Memory by Blending and Refining the Past [30.63352929849842]
CREEMは長期会話のための新しい記憶システムである。
過去と現在の情報をシームレスに接続すると同時に、障害情報を忘れる能力も備えている。
論文 参考訳(メタデータ) (2024-03-03T08:12:59Z) - Compress to Impress: Unleashing the Potential of Compressive Memory in Real-World Long-Term Conversations [39.05338079159942]
本研究は,従来の検索モジュールやメモリデータベースを活用する新しいフレームワークであるCOMEDY(Commpressive Memory-Enhanced Dialogue sYstems)を紹介する。
COMEDYの中心は圧縮メモリの概念であり、セッション固有の要約、ユーザー・ボットのダイナミクス、過去のイベントを簡潔なメモリ形式に解釈する。
論文 参考訳(メタデータ) (2024-02-19T09:19:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。