論文の概要: CAST: Character-and-Scene Episodic Memory for Agents
- arxiv url: http://arxiv.org/abs/2602.06051v1
- Date: Wed, 14 Jan 2026 05:06:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-15 14:54:53.663085
- Title: CAST: Character-and-Scene Episodic Memory for Agents
- Title(参考訳): CAST:エージェントのためのキャラクタ・アンド・シーン・エピソード記憶
- Authors: Kexin Ma, Bojun Li, Yuhua Tang, Ruochun Jin, Liting Sun,
- Abstract要約: 本稿ではドラマティック理論に着想を得たキャラクタ・アンド・シーン型メモリアーキテクチャ(CAST)を提案する。
CASTは3Dシーンを構築し、それを文字プロファイルに整理し、文字のイベントを要約してエピソード記憶を表現する。
CASTは、さまざまなデータセットのベースラインよりも平均8.11% F1と10.21% J(LLM-as-a-Judge)が改善されている。
- 参考スコア(独自算出の注目度): 10.4014303879367
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Episodic memory is a central component of human memory, which refers to the ability to recall coherent events grounded in who, when, and where. However, most agent memory systems only emphasize semantic recall and treat experience as structures such as key-value, vector, or graph, which makes them struggle to represent and retrieve coherent events. To address this challenge, we propose a Character-and-Scene based memory architecture(CAST) inspired by dramatic theory. Specifically, CAST constructs 3D scenes (time/place/topic) and organizes them into character profiles that summarize the events of a character to represent episodic memory. Moreover, CAST complements this episodic memory with a graph-based semantic memory, which yields a robust dual memory design. Experiments demonstrate that CAST has averagely improved 8.11% F1 and 10.21% J(LLM-as-a-Judge) than baselines on various datasets, especially on open and time-sensitive conversational questions.
- Abstract(参考訳): エピソード記憶(英: Episodic memory)は、人間の記憶の中心的な要素であり、誰が、いつ、どこで、どこに根ざした一貫性のある出来事をリコールする能力を指す。
しかし、ほとんどのエージェントメモリシステムは、セマンティックリコールのみを強調し、キー値、ベクトル、グラフのような構造として経験を扱い、一貫性のあるイベントを表現し、取り出すのに苦労する。
この課題に対処するために,ドラマティック理論に着想を得たキャラクタ・アンド・シーン型メモリアーキテクチャ(CAST)を提案する。
具体的には、CASTは3Dシーン(時間/場所/トピック)を構築し、それを文字プロファイルに整理し、文字のイベントを要約してエピソード記憶を表現する。
さらに、CASTはこのエピソードメモリをグラフベースのセマンティックメモリで補完し、堅牢なデュアルメモリ設計をもたらす。
CASTは、様々なデータセット、特にオープンで時間に敏感な会話質問のベースラインよりも平均8.11% F1と10.21% J(LLM-as-a-Judge)を改善した。
関連論文リスト
- TraceMem: Weaving Narrative Memory Schemata from User Conversational Traces [9.654990538033362]
長期的な相互作用を維持することは、大規模言語モデルにとって依然としてボトルネックである。
ユーザの会話トレースから構造化された物語記憶スキーマを織り込むフレームワークであるTraceMemを提案する。
TraceMemは、ブレインインスパイアされたアーキテクチャで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2026-02-10T12:14:58Z) - Beyond Dialogue Time: Temporal Semantic Memory for Personalized LLM Agents [68.84161689205779]
テンポラルセマンティックメモリ(TSM)は、ポイントワイドメモリのセマンティックタイムをモデル化するメモリフレームワークである。
TSMは既存の手法を一貫して上回り、最大12.2%の精度向上を実現している。
論文 参考訳(メタデータ) (2026-01-12T12:24:44Z) - Memory Matters More: Event-Centric Memory as a Logic Map for Agent Searching and Reasoning [55.251697395358285]
大規模言語モデル(LLM)は、環境を推論し、計画し、相互作用するインテリジェントエージェントとして、ますます多くデプロイされている。
長期のシナリオに効果的にスケールするには、そのようなエージェントの重要な機能は、過去の経験を保持し、整理し、取り出すことができるメモリメカニズムである。
イベント理論にインスパイアされたイベント中心のメモリフレームワークであるCompassMemを提案する。
論文 参考訳(メタデータ) (2026-01-08T08:44:07Z) - Evaluating Long-Term Memory for Long-Context Question Answering [100.1267054069757]
質問応答タスクにアノテートした合成長文対話のベンチマークであるLoCoMoを用いて,メモリ拡張手法の体系的評価を行う。
以上の結果から,メモリ拡張アプローチによりトークン使用率が90%以上削減され,競争精度が向上した。
論文 参考訳(メタデータ) (2025-10-27T18:03:50Z) - Mem-α: Learning Memory Construction via Reinforcement Learning [20.916677456417464]
大きな言語モデル(LLM)エージェントは、限られたコンテキストウィンドウによって制約される。
現在のメモリ拡張エージェントは、メモリ更新のための事前に定義された命令とツールに依存している。
Mem-alphaは、エージェントに複雑なメモリシステムを効果的に管理するように訓練する強化学習フレームワークである。
論文 参考訳(メタデータ) (2025-09-30T08:02:34Z) - MemGen: Weaving Generative Latent Memory for Self-Evolving Agents [57.1835920227202]
本稿では,エージェントに人間的な認知機能を持たせる動的生成記憶フレームワークであるMemGenを提案する。
MemGenは、エージェントが推論を通して潜在記憶をリコールし、増大させ、記憶と認知の密接なサイクルを生み出すことを可能にする。
論文 参考訳(メタデータ) (2025-09-29T12:33:13Z) - ESSENTIAL: Episodic and Semantic Memory Integration for Video Class-Incremental Learning [8.958316945958025]
ESSENTIALは、時間的にスパースな特徴を記憶するためのエピソードメモリと、学習可能なプロンプトで表される一般的な知識を記憶するためのセマンティックメモリから構成される。
本稿では,エピソードメモリとセマンティックプロンプトをクロスアテンションを通じて統合した新しいメモリ検索(MR)モジュールを提案する。
注目すべきは、メモリの大幅な削減により、ESSENTIALはベンチマークで良好なパフォーマンスを達成することだ。
論文 参考訳(メタデータ) (2025-08-14T17:59:07Z) - Graceful forgetting: Memory as a process [0.0]
有界メモリにおける感覚入力をどのように適合させるかを説明するための合理的な枠組みが提案されている。
このフレームワークは、メモリに関する広範な知識を理解し、機能的および機械的用語におけるメモリの理解に近づけるための助けとなることを意図している。
論文 参考訳(メタデータ) (2025-02-16T12:46:34Z) - Episodic Memories Generation and Evaluation Benchmark for Large Language Models [7.660368798066376]
我々は、人間のような認知に向けてAIを前進させるためには、エピソード記憶能力を大規模言語モデルに統合することが不可欠であると主張している。
本研究では,時間的・空間的文脈をカプセル化し,関連する実体を包含し,詳細な記述を行うための構造的アプローチを開発する。
我々は、汚染のない独自のエピソードメモリベンチマークを合成し、LLM性能を評価するためにオープンソースコードとデータセットをリリースする。
論文 参考訳(メタデータ) (2025-01-21T02:16:13Z) - Memformer: A Memory-Augmented Transformer for Sequence Modeling [55.780849185884996]
本稿では、シーケンスモデリングのための効率的なニューラルネットワークであるMemformerを紹介する。
我々のモデルは長いシーケンスを処理する際に線形時間複雑性と一定メモリ空間複雑性を実現する。
論文 参考訳(メタデータ) (2020-10-14T09:03:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。