論文の概要: MOOM: Maintenance, Organization and Optimization of Memory in Ultra-Long Role-Playing Dialogues
- arxiv url: http://arxiv.org/abs/2509.11860v1
- Date: Mon, 15 Sep 2025 12:35:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.278844
- Title: MOOM: Maintenance, Organization and Optimization of Memory in Ultra-Long Role-Playing Dialogues
- Title(参考訳): MOOM:超長期ロールプレイング対話における記憶の維持・組織・最適化
- Authors: Weishu Chen, Jinyi Tang, Zhouhui Hou, Shihao Han, Mingjie Zhan, Zhiyuan Huang, Delong Liu, Jiawei Guo, Zhicheng Zhao, Fei Su,
- Abstract要約: メモリ抽出は人間のロボットロールプレイングシナリオにおけるコヒーレントなウルトラロングダイアログを維持するために重要である。
そこで本研究では,プロット開発とコアストーリーテリング要素としてのキャラクタ描写をモデル化し,文芸理論を活用した最初のデュアルブランチメモリプラグインMOOMを提案する。
MOOMはさらに、競合抑制のメモリ理論にインスパイアされた、メモリ容量を制限し、制御不能な成長を緩和するために、忘れるメカニズムを統合する。
- 参考スコア(独自算出の注目度): 30.599201653940852
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Memory extraction is crucial for maintaining coherent ultra-long dialogues in human-robot role-playing scenarios. However, existing methods often exhibit uncontrolled memory growth. To address this, we propose MOOM, the first dual-branch memory plugin that leverages literary theory by modeling plot development and character portrayal as core storytelling elements. Specifically, one branch summarizes plot conflicts across multiple time scales, while the other extracts the user's character profile. MOOM further integrates a forgetting mechanism, inspired by the ``competition-inhibition'' memory theory, to constrain memory capacity and mitigate uncontrolled growth. Furthermore, we present ZH-4O, a Chinese ultra-long dialogue dataset specifically designed for role-playing, featuring dialogues that average 600 turns and include manually annotated memory information. Experimental results demonstrate that MOOM outperforms all state-of-the-art memory extraction methods, requiring fewer large language model invocations while maintaining a controllable memory capacity.
- Abstract(参考訳): メモリ抽出は人間のロボットロールプレイングシナリオにおけるコヒーレントなウルトラロングダイアログを維持するために重要である。
しかし、既存の手法はしばしば制御不能なメモリ成長を示す。
そこで本研究では,プロット開発とコアストーリーテリング要素としてのキャラクタ描写をモデル化し,文芸理論を活用した最初のデュアルブランチメモリプラグインMOOMを提案する。
具体的には、複数の時間スケールでプロット競合を要約し、もう一方はユーザーの文字プロファイルを抽出する。
MOOMはさらに、'competition-inhibition'のメモリ理論にインスパイアされた、メモリ容量を制限し、制御されていない成長を緩和する、忘れるメカニズムを統合している。
さらに、ロールプレイングに特化した中国語超長対話データセットであるZH-4Oについて、平均600回転の対話を特徴とし、手動のアノテートメモリ情報を含む。
実験により、MOOMは、制御可能なメモリ容量を維持しながら、大きな言語モデルの呼び出しを少なくし、最先端のメモリ抽出方法よりも優れていることが示された。
関連論文リスト
- Pre-Storage Reasoning for Episodic Memory: Shifting Inference Burden to Memory for Personalized Dialogue [13.558061425427688]
PreMemは、複雑な推論プロセスを推論からメモリ構築に移行する新しいアプローチである。
これは、相互作用中の計算要求を減らしながら、リッチな表現を生成する。
実験では、すべてのモデルサイズで大幅にパフォーマンスが向上した。
論文 参考訳(メタデータ) (2025-09-13T15:18:08Z) - In Prospect and Retrospect: Reflective Memory Management for Long-term Personalized Dialogue Agents [70.12342024019044]
大規模言語モデル(LLM)は、オープンエンド対話において大きな進歩を遂げているが、関連する情報の保持と取得ができないため、その有効性は制限されている。
本稿では,長期対話エージェントのための新しいメカニズムであるリフレクティブメモリ管理(RMM)を提案する。
RMMは、LongMemEvalデータセットのメモリ管理なしでベースラインよりも10%以上精度が向上している。
論文 参考訳(メタデータ) (2025-03-11T04:15:52Z) - Ever-Evolving Memory by Blending and Refining the Past [30.63352929849842]
CREEMは長期会話のための新しい記憶システムである。
過去と現在の情報をシームレスに接続すると同時に、障害情報を忘れる能力も備えている。
論文 参考訳(メタデータ) (2024-03-03T08:12:59Z) - MemoryBank: Enhancing Large Language Models with Long-Term Memory [7.654404043517219]
本稿では,大規模言語モデルに適した新しいメモリ機構であるMemoryBankを提案する。
MemoryBankは、モデルが関連するメモリを呼び出し、継続的なメモリ更新を通じて継続的に進化し、過去のインタラクションから情報を合成することで、ユーザの個性に適応することを可能にする。
論文 参考訳(メタデータ) (2023-05-17T14:40:29Z) - Lift Yourself Up: Retrieval-augmented Text Generation with Self Memory [72.36736686941671]
本稿では,検索拡張生成モデルを改善するための新しいフレームワーク,Selfmemを提案する。
Selfmemは、検索拡張ジェネレータを反復的に使用して、無制限のメモリプールを生成し、メモリセレクタを使用して、続く生成ラウンドの1つの出力をメモリとして選択する。
我々は,3つの異なるテキスト生成タスクにおける自己メモの有効性を評価する。
論文 参考訳(メタデータ) (2023-05-03T21:40:54Z) - SCM: Enhancing Large Language Model with Self-Controlled Memory Framework [54.33686574304374]
大きな言語モデル(LLM)は、長い入力を処理できないため、重要な歴史的情報が失われる。
本稿では,LLMが長期記憶を維持し,関連する情報をリコールする能力を高めるための自己制御メモリ(SCM)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-26T07:25:31Z) - LaMemo: Language Modeling with Look-Ahead Memory [50.6248714811912]
右側トークンへの漸進的参加により再帰記憶を向上させるLook-Ahead Memory(LaMemo)を提案する。
LaMemoは、メモリ長に比例した追加のオーバーヘッドで、双方向の注意とセグメントの再発を受け入れる。
広く使われている言語モデリングベンチマークの実験は、異なる種類のメモリを備えたベースラインよりも優れていることを示した。
論文 参考訳(メタデータ) (2022-04-15T06:11:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。