論文の概要: TeleMem: Building Long-Term and Multimodal Memory for Agentic AI
- arxiv url: http://arxiv.org/abs/2601.06037v4
- Date: Thu, 22 Jan 2026 13:48:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.573546
- Title: TeleMem: Building Long-Term and Multimodal Memory for Agentic AI
- Title(参考訳): TeleMem:エージェントAIのための長期およびマルチモーダルメモリの構築
- Authors: Chunliang Chen, Ming Guan, Xiao Lin, Jiaxu Li, Luxi Lin, Qiyi Wang, Xiangyu Chen, Jixiang Luo, Changzhi Sun, Dell Zhang, Xuelong Li,
- Abstract要約: 大規模言語モデル(LLM)は、多くのNLPタスクにおいて優れているが、対話履歴の拡張に対する注意が限られているため、長期的な相互作用を維持するのに苦労する。
本稿では,コヒーレントなユーザプロファイルを物語動的抽出により維持する,長期・マルチモーダル統合メモリシステムTeleMemを提案する。
TeleMemは最先端のMem0ベースラインを19%上回り、トークンは43%減り、ZH-4Oの長期ロールプレイゲームベンチマークでは2.1倍高速化された。
- 参考スコア(独自算出の注目度): 43.36544433800511
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) excel at many NLP tasks but struggle to sustain long-term interactions due to limited attention over extended dialogue histories. Retrieval-augmented generation (RAG) mitigates this issue but lacks reliable mechanisms for updating or refining stored memories, leading to schema-driven hallucinations, inefficient write operations, and minimal support for multimodal reasoning.To address these challenges, we propose TeleMem, a unified long-term and multimodal memory system that maintains coherent user profiles through narrative dynamic extraction, ensuring that only dialogue-grounded information is preserved. TeleMem further introduces a structured writing pipeline that batches, retrieves, clusters, and consolidates memory entries, substantially improving storage efficiency, reducing token usage, and accelerating memory operations. Additionally, a multimodal memory module combined with ReAct-style reasoning equips the system with a closed-loop observe, think, and act process that enables accurate understanding of complex video content in long-term contexts. Experimental results show that TeleMem surpasses the state-of-the-art Mem0 baseline with 19% higher accuracy, 43% fewer tokens, and a 2.1x speedup on the ZH-4O long-term role-play gaming benchmark.
- Abstract(参考訳): 大規模言語モデル(LLM)は、多くのNLPタスクにおいて優れているが、対話履歴の拡張に対する注意が限られているため、長期的な相互作用を維持するのに苦労する。
検索言語拡張世代(RAG)は、この問題を緩和するが、記憶記憶の更新や精錬の信頼性に欠けており、スキーマ駆動の幻覚、非効率的な書き込み操作、マルチモーダル推論の最小サポートに繋がる。これらの課題に対処するために、物語動的抽出による一貫性のあるユーザプロファイルを維持する統一型長期マルチモーダルメモリシステムであるTeleMemを提案する。
TeleMemはさらに、メモリエントリのバッチ化、検索、クラスタ化、統合、ストレージ効率の大幅な向上、トークン使用量の削減、メモリ操作の高速化といった、構造化された書き込みパイプラインも導入している。
さらに、ReActスタイルの推論と組み合わされたマルチモーダルメモリモジュールは、長期的文脈における複雑なビデオコンテンツの正確な理解を可能にするクローズドループ観察、思考、行動プロセスと共にシステムに装備する。
実験の結果、TeleMemは最先端のMem0ベースラインを19%上回り、トークンは43%減り、ZH-4Oの長期プレイゲームベンチマークでは2.1倍のスピードアップを示した。
関連論文リスト
- Mem-Gallery: Benchmarking Multimodal Long-Term Conversational Memory for MLLM Agents [76.76004970226485]
長期記憶はマルチモーダル大言語モデル(MLLM)エージェントにとって重要な機能である。
Mem-GalleryはMLLMエージェントのマルチモーダル長期会話メモリ評価のための新しいベンチマークである。
論文 参考訳(メタデータ) (2026-01-07T02:03:13Z) - MemVerse: Multimodal Memory for Lifelong Learning Agents [35.218549149012844]
我々は,モデルに依存しないプラグアンドプレイメモリフレームワークであるMemVerseを紹介した。
MemVerseは階層的検索ベースのメモリで高速パラメトリックリコールを行う。
スケーラブルで適応的なマルチモーダルインテリジェンスを実現する。
論文 参考訳(メタデータ) (2025-12-03T10:06:14Z) - WorldMM: Dynamic Multimodal Memory Agent for Long Video Reasoning [66.24870234484668]
我々は,複数の相補的記憶から構築・取得する,新しいマルチモーダルメモリエージェント WorldMM を紹介する。
WorldMMは5つの長いビデオ質問回答ベンチマークで既存のベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-12-02T05:14:52Z) - SGMem: Sentence Graph Memory for Long-Term Conversational Agents [14.89396085814917]
チャンク単位内の文レベルグラフとして対話を表現するSGMem(Sentence Graph Memory)を紹介する。
SGMem は, 長期会話型質問応答において, 精度を向上し, 高いベースラインを向上することを示す。
論文 参考訳(メタデータ) (2025-09-25T14:21:44Z) - InternLM-XComposer2.5-OmniLive: A Comprehensive Multimodal System for Long-term Streaming Video and Audio Interactions [104.90258030688256]
本研究は,ストリーミング映像とオーディオ入力とのリアルタイムインタラクションを実現するために,非絡み合いのストリーミング知覚,推論,メモリ機構を導入している。
このプロジェクトは人間のような認知をシミュレートし、多モーダルな大規模言語モデルが時間とともに継続的かつ適応的なサービスを提供できるようにする。
論文 参考訳(メタデータ) (2024-12-12T18:58:30Z) - SCM: Enhancing Large Language Model with Self-Controlled Memory Framework [54.33686574304374]
大きな言語モデル(LLM)は、長い入力を処理できないため、重要な歴史的情報が失われる。
本稿では,LLMが長期記憶を維持し,関連する情報をリコールする能力を高めるための自己制御メモリ(SCM)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-26T07:25:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。