論文の概要: MIRIX: Multi-Agent Memory System for LLM-Based Agents
- arxiv url: http://arxiv.org/abs/2507.07957v1
- Date: Thu, 10 Jul 2025 17:40:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.517615
- Title: MIRIX: Multi-Agent Memory System for LLM-Based Agents
- Title(参考訳): MIRIX:LLMエージェント用マルチエージェントメモリシステム
- Authors: Yu Wang, Xi Chen,
- Abstract要約: MIRIXは言語モデルのためのモジュール型マルチエージェントメモリシステムである。
MIRIXは、リッチな視覚的およびマルチモーダル体験を受け入れるためにテキストを超越する。
MIRIXはメモリ拡張LDMエージェントの新たなパフォーマンス標準を設定している。
- 参考スコア(独自算出の注目度): 7.077442662391049
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although memory capabilities of AI agents are gaining increasing attention, existing solutions remain fundamentally limited. Most rely on flat, narrowly scoped memory components, constraining their ability to personalize, abstract, and reliably recall user-specific information over time. To this end, we introduce MIRIX, a modular, multi-agent memory system that redefines the future of AI memory by solving the field's most critical challenge: enabling language models to truly remember. Unlike prior approaches, MIRIX transcends text to embrace rich visual and multimodal experiences, making memory genuinely useful in real-world scenarios. MIRIX consists of six distinct, carefully structured memory types: Core, Episodic, Semantic, Procedural, Resource Memory, and Knowledge Vault, coupled with a multi-agent framework that dynamically controls and coordinates updates and retrieval. This design enables agents to persist, reason over, and accurately retrieve diverse, long-term user data at scale. We validate MIRIX in two demanding settings. First, on ScreenshotVQA, a challenging multimodal benchmark comprising nearly 20,000 high-resolution computer screenshots per sequence, requiring deep contextual understanding and where no existing memory systems can be applied, MIRIX achieves 35% higher accuracy than the RAG baseline while reducing storage requirements by 99.9%. Second, on LOCOMO, a long-form conversation benchmark with single-modal textual input, MIRIX attains state-of-the-art performance of 85.4%, far surpassing existing baselines. These results show that MIRIX sets a new performance standard for memory-augmented LLM agents. To allow users to experience our memory system, we provide a packaged application powered by MIRIX. It monitors the screen in real time, builds a personalized memory base, and offers intuitive visualization and secure local storage to ensure privacy.
- Abstract(参考訳): AIエージェントのメモリ能力はますます注目されているが、既存のソリューションは基本的に制限されている。
たいていはフラットで狭い範囲のメモリコンポーネントに依存しており、時間とともにユーザー固有の情報をパーソナライズし、抽象化し、確実にリコールする能力を制限している。
この目的のために我々は,AIメモリの未来を再定義するモジュール型マルチエージェントメモリシステムであるMIRIXを紹介した。
従来のアプローチとは異なり、MIRIXはテキストを変換してリッチな視覚的およびマルチモーダルな体験を取り入れ、メモリを現実のシナリオで真に有用なものにしている。
MIRIXは、コア、エピソード、セマンティック、プロシーダラル、リソースメモリ、知識Vaultの6つの異なる、注意深く構成されたメモリタイプで構成されており、更新と検索を動的に制御・調整するマルチエージェントフレームワークと組み合わせている。
この設計により、エージェントは大規模に多様な長期的なユーザーデータを永続化し、推論し、正確に取得することができる。
2つの要求設定でMIRIXを検証する。
第一に、ScreenshotVQAでは、シーケンス毎に20,000近い高解像度のコンピュータスクリーンショットで構成され、深いコンテキスト理解が必要であり、既存のメモリシステムが適用できないため、MIRIXはストレージ要求を99.9%削減しながらRAGベースラインよりも35%高い精度を達成している。
第2に、単一モーダルテキスト入力を持つ長文の会話ベンチマークであるLOCOMOでは、MIRIXは85.4%の最先端性能を達成し、既存のベースラインをはるかに上回っている。
これらの結果から,MIRIX はメモリ拡張 LLM エージェントの新たな性能基準を定めている。
ユーザによるメモリシステムの体験を実現するため,MIRIXを利用したパッケージアプリケーションを提供している。
画面をリアルタイムでモニタし、パーソナライズされたメモリベースを構築し、直感的な視覚化と、プライバシーを確保するためのローカルストレージを提供する。
関連論文リスト
- MemOS: A Memory OS for AI System [115.28320211684103]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - Rethinking Memory in AI: Taxonomy, Operations, Topics, and Future Directions [55.19217798774033]
メモリは、大規模言語モデル(LLM)ベースのエージェントを支える、AIシステムの基本コンポーネントである。
本稿ではまず,メモリ表現をパラメトリックおよびコンテキスト形式に分類する。
次に、コンソリデーション、更新、インデックス付け、フォッティング、検索、圧縮の6つの基本的なメモリ操作を紹介します。
論文 参考訳(メタデータ) (2025-05-01T17:31:33Z) - A-MEM: Agentic Memory for LLM Agents [42.50876509391843]
大規模言語モデル(LLM)エージェントは、歴史的経験を活用するためにメモリシステムを必要とする。
現在のメモリシステムは基本的なストレージと検索を可能にするが、洗練されたメモリ構造は欠如している。
本稿では, LLMエージェントに対して, エージェント方式で動的に記憶を整理できる新しいエージェントメモリシステムを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:36:14Z) - MemGPT: Towards LLMs as Operating Systems [50.02623936965231]
大規模言語モデル(LLM)はAIに革命をもたらしたが、限られたコンテキストウィンドウによって制約されている。
従来のオペレーティングシステムにおける階層型メモリシステムからのインスピレーションを引き出す技術である仮想コンテキスト管理を提案する。
私たちはMemGPTコードと実験のためのデータをhttps://memgpt.ai.comでリリースします。
論文 参考訳(メタデータ) (2023-10-12T17:51:32Z) - Recurrent Dynamic Embedding for Video Object Segmentation [54.52527157232795]
一定サイズのメモリバンクを構築するためにRDE(Recurrent Dynamic Embedding)を提案する。
本稿では, SAM を長時間の動画でより堅牢にするため, トレーニング段階での無バイアス誘導損失を提案する。
また、メモリバンクの異なる品質のマスクの埋め込みをネットワークが修復できるように、新たな自己補正戦略を設計する。
論文 参考訳(メタデータ) (2022-05-08T02:24:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。