論文の概要: MIRIX: Multi-Agent Memory System for LLM-Based Agents
- arxiv url: http://arxiv.org/abs/2507.07957v1
- Date: Thu, 10 Jul 2025 17:40:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.517615
- Title: MIRIX: Multi-Agent Memory System for LLM-Based Agents
- Title(参考訳): MIRIX:LLMエージェント用マルチエージェントメモリシステム
- Authors: Yu Wang, Xi Chen,
- Abstract要約: MIRIXは言語モデルのためのモジュール型マルチエージェントメモリシステムである。
MIRIXは、リッチな視覚的およびマルチモーダル体験を受け入れるためにテキストを超越する。
MIRIXはメモリ拡張LDMエージェントの新たなパフォーマンス標準を設定している。
- 参考スコア(独自算出の注目度): 7.077442662391049
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although memory capabilities of AI agents are gaining increasing attention, existing solutions remain fundamentally limited. Most rely on flat, narrowly scoped memory components, constraining their ability to personalize, abstract, and reliably recall user-specific information over time. To this end, we introduce MIRIX, a modular, multi-agent memory system that redefines the future of AI memory by solving the field's most critical challenge: enabling language models to truly remember. Unlike prior approaches, MIRIX transcends text to embrace rich visual and multimodal experiences, making memory genuinely useful in real-world scenarios. MIRIX consists of six distinct, carefully structured memory types: Core, Episodic, Semantic, Procedural, Resource Memory, and Knowledge Vault, coupled with a multi-agent framework that dynamically controls and coordinates updates and retrieval. This design enables agents to persist, reason over, and accurately retrieve diverse, long-term user data at scale. We validate MIRIX in two demanding settings. First, on ScreenshotVQA, a challenging multimodal benchmark comprising nearly 20,000 high-resolution computer screenshots per sequence, requiring deep contextual understanding and where no existing memory systems can be applied, MIRIX achieves 35% higher accuracy than the RAG baseline while reducing storage requirements by 99.9%. Second, on LOCOMO, a long-form conversation benchmark with single-modal textual input, MIRIX attains state-of-the-art performance of 85.4%, far surpassing existing baselines. These results show that MIRIX sets a new performance standard for memory-augmented LLM agents. To allow users to experience our memory system, we provide a packaged application powered by MIRIX. It monitors the screen in real time, builds a personalized memory base, and offers intuitive visualization and secure local storage to ensure privacy.
- Abstract(参考訳): AIエージェントのメモリ能力はますます注目されているが、既存のソリューションは基本的に制限されている。
たいていはフラットで狭い範囲のメモリコンポーネントに依存しており、時間とともにユーザー固有の情報をパーソナライズし、抽象化し、確実にリコールする能力を制限している。
この目的のために我々は,AIメモリの未来を再定義するモジュール型マルチエージェントメモリシステムであるMIRIXを紹介した。
従来のアプローチとは異なり、MIRIXはテキストを変換してリッチな視覚的およびマルチモーダルな体験を取り入れ、メモリを現実のシナリオで真に有用なものにしている。
MIRIXは、コア、エピソード、セマンティック、プロシーダラル、リソースメモリ、知識Vaultの6つの異なる、注意深く構成されたメモリタイプで構成されており、更新と検索を動的に制御・調整するマルチエージェントフレームワークと組み合わせている。
この設計により、エージェントは大規模に多様な長期的なユーザーデータを永続化し、推論し、正確に取得することができる。
2つの要求設定でMIRIXを検証する。
第一に、ScreenshotVQAでは、シーケンス毎に20,000近い高解像度のコンピュータスクリーンショットで構成され、深いコンテキスト理解が必要であり、既存のメモリシステムが適用できないため、MIRIXはストレージ要求を99.9%削減しながらRAGベースラインよりも35%高い精度を達成している。
第2に、単一モーダルテキスト入力を持つ長文の会話ベンチマークであるLOCOMOでは、MIRIXは85.4%の最先端性能を達成し、既存のベースラインをはるかに上回っている。
これらの結果から,MIRIX はメモリ拡張 LLM エージェントの新たな性能基準を定めている。
ユーザによるメモリシステムの体験を実現するため,MIRIXを利用したパッケージアプリケーションを提供している。
画面をリアルタイムでモニタし、パーソナライズされたメモリベースを構築し、直感的な視覚化と、プライバシーを確保するためのローカルストレージを提供する。
関連論文リスト
- Evaluating Memory in LLM Agents via Incremental Multi-Turn Interactions [19.51727855436013]
メモリ機構を持つエージェントをメモリエージェントと呼ぶ。
本稿では,メモリエージェントに不可欠な4つのコア能力,すなわち,正確な検索,テスト時間学習,長距離理解,コンフリクト解決の4つを同定する。
既存のデータセットは、限られたコンテキスト長に依存するか、書籍ベースのQAのような静的で長いコンテキスト設定用に調整されている。
既存のベンチマークでは4つの能力をすべてカバーしていないため、メモリエージェント用に特別に設計された新しいベンチマークであるMemoryAgentBenchを紹介します。
論文 参考訳(メタデータ) (2025-07-07T17:59:54Z) - MemOS: A Memory OS for AI System [115.28320211684103]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - MEM1: Learning to Synergize Memory and Reasoning for Efficient Long-Horizon Agents [84.62985963113245]
我々は,長時間のマルチターンタスクに対して,エージェントが一定のメモリで動作可能な,エンドツーエンドの強化学習フレームワークMEM1を紹介する。
各ターンでMEM1は、メモリ統合と推論を共同でサポートするコンパクトな共有内部状態を更新する。
その結果,MEM1-7Bは16目的のマルチホップQAタスクにおいて,Qwen2.5-14B-Instructと比較してメモリ使用量を3.7倍削減し,3.5倍の性能向上を示す。
論文 参考訳(メタデータ) (2025-06-18T19:44:46Z) - Memory OS of AI Agent [3.8665965906369375]
大きな言語モデル(LLM)は、固定されたコンテキストウィンドウと不十分なメモリ管理から重要な課題に直面します。
本稿では,AIエージェントの総合的かつ効率的なメモリ管理を実現するために,メモリオペレーティングシステム(MemoryOS)を提案する。
論文 参考訳(メタデータ) (2025-05-30T15:36:51Z) - MemOS: An Operating System for Memory-Augmented Generation (MAG) in Large Language Models [31.944531660401722]
我々は,大規模言語モデル(LLM)用に設計されたメモリオペレーティングシステムであるMemOSを紹介する。
コアとなるMemCubeは、異種メモリの追跡、融合、マイグレーションを可能にする標準化されたメモリ抽象化である。
MemOSは、強力な制御性、適応性、進化性を備えたメモリ中心の実行フレームワークを確立する。
論文 参考訳(メタデータ) (2025-05-28T08:27:12Z) - Towards Multi-Granularity Memory Association and Selection for Long-Term Conversational Agents [73.77930932005354]
我々は,多粒度アソシエーション,適応選択,検索を構築することで,メモリ統合を向上するフレームワークであるMemGASを提案する。
MemGASは多粒度メモリユニットに基づいており、ガウス混合モデルを用いて新しい記憶と過去の記憶をクラスタリングし関連付けている。
4つの長期メモリベンチマークの実験により、MemGASは質問応答と検索タスクの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-26T06:13:07Z) - Rethinking Memory in AI: Taxonomy, Operations, Topics, and Future Directions [55.19217798774033]
メモリは、大規模言語モデル(LLM)ベースのエージェントを支える、AIシステムの基本コンポーネントである。
本稿ではまず,メモリ表現をパラメトリックおよびコンテキスト形式に分類する。
次に、コンソリデーション、更新、インデックス付け、フォッティング、検索、圧縮の6つの基本的なメモリ操作を紹介します。
論文 参考訳(メタデータ) (2025-05-01T17:31:33Z) - A-MEM: Agentic Memory for LLM Agents [42.50876509391843]
大規模言語モデル(LLM)エージェントは、歴史的経験を活用するためにメモリシステムを必要とする。
現在のメモリシステムは基本的なストレージと検索を可能にするが、洗練されたメモリ構造は欠如している。
本稿では, LLMエージェントに対して, エージェント方式で動的に記憶を整理できる新しいエージェントメモリシステムを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:36:14Z) - MemGPT: Towards LLMs as Operating Systems [50.02623936965231]
大規模言語モデル(LLM)はAIに革命をもたらしたが、限られたコンテキストウィンドウによって制約されている。
従来のオペレーティングシステムにおける階層型メモリシステムからのインスピレーションを引き出す技術である仮想コンテキスト管理を提案する。
私たちはMemGPTコードと実験のためのデータをhttps://memgpt.ai.comでリリースします。
論文 参考訳(メタデータ) (2023-10-12T17:51:32Z) - Recurrent Dynamic Embedding for Video Object Segmentation [54.52527157232795]
一定サイズのメモリバンクを構築するためにRDE(Recurrent Dynamic Embedding)を提案する。
本稿では, SAM を長時間の動画でより堅牢にするため, トレーニング段階での無バイアス誘導損失を提案する。
また、メモリバンクの異なる品質のマスクの埋め込みをネットワークが修復できるように、新たな自己補正戦略を設計する。
論文 参考訳(メタデータ) (2022-05-08T02:24:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。