論文の概要: Field-Theoretic Memory for AI Agents: Continuous Dynamics for Context Preservation
- arxiv url: http://arxiv.org/abs/2602.21220v1
- Date: Sat, 31 Jan 2026 04:33:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 07:21:25.655639
- Title: Field-Theoretic Memory for AI Agents: Continuous Dynamics for Context Preservation
- Title(参考訳): AIエージェントのフィールド理論記憶:コンテキスト保存のための連続ダイナミクス
- Authors: Subhadip Mitra,
- Abstract要約: 本稿では、記憶された情報を偏微分方程式によって制御された連続フィールドとして扱うAIエージェントのメモリシステムを提案する。
確立された2つの長文ベンチマークにおいて,本システムの評価を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present a memory system for AI agents that treats stored information as continuous fields governed by partial differential equations rather than discrete entries in a database. The approach draws from classical field theory: memories diffuse through semantic space, decay thermodynamically based on importance, and interact through field coupling in multi-agent scenarios. We evaluate the system on two established long-context benchmarks: LoCoMo (ACL 2024) with 300-turn conversations across 35 sessions, and LongMemEval (ICLR 2025) testing multi-session reasoning over 500+ turns. On LongMemEval, the field-theoretic approach achieves significant improvements: +116% F1 on multi-session reasoning (p<0.01, d= 3.06), +43.8% on temporal reasoning (p<0.001, d= 9.21), and +27.8% retrieval recall on knowledge updates (p<0.001, d= 5.00). Multi-agent experiments show near-perfect collective intelligence (>99.8%) through field coupling. Code is available at github.com/rotalabs/rotalabs-fieldmem.
- Abstract(参考訳): 本稿では、データベース内の離散エントリではなく、偏微分方程式によって制御される連続フィールドとして記憶された情報を扱うAIエージェントのメモリシステムを提案する。
このアプローチは古典的場の理論から導かれる: 記憶は意味空間を通して拡散し、重要性に基づいて熱力学的に崩壊し、多エージェントのシナリオで場のカップリングを通して相互作用する。
このシステムは,35セッションで300ターンの会話を行うLoCoMo (ACL 2024) と,500ターン以上のマルチセッション推論を行うLongMemEval (ICLR 2025) の2つの長コンテキストベンチマークで評価した。
LongMemEvalでは、フィールド理論のアプローチが大幅に改善されている: +116% F1 on multi-session reasoning (p<0.01, d= 3.06), +43.8% on temporal reasoning (p<0.001, d= 9.21), +27.8% recall recall on knowledge updates (p<0.001, d= 5.00)。
マルチエージェント実験は、フィールドカップリングによるほぼ完全な集団知能(>99.8%)を示す。
コードはgithub.com/rotalabs/rotalabs-fieldmemで入手できる。
関連論文リスト
- Let the Agent Search: Autonomous Exploration Beats Rigid Workflows in Temporal Question Answering [12.204337131764852]
時間的知識グラフ質問回答(TKGQA)は、時間的制約の下でマルチホップ推論を要求する。
オフ・ザ・シェルフの自律性、つまり次に何をするかを決めることは、すでにかなりの利益をもたらしていることを示す。
時間的質問応答のための自律型トレーニングフリーエージェントAT2QAを提案する。
論文 参考訳(メタデータ) (2026-03-02T13:33:39Z) - EMemBench: Interactive Benchmarking of Episodic Memory for VLM Agents [52.567469286881426]
本稿では,対話型ゲームによるエージェントの長期記憶評価のためのプログラムベンチマークEMemBenchを紹介する。
固定された質問セットを使う代わりに、EMemBenchは各エージェント自身の軌道から質問を生成する。
各テンプレートは、下層のゲーム信号から検証済みの真理を計算する。
論文 参考訳(メタデータ) (2026-01-23T12:09:59Z) - Memory-T1: Reinforcement Learning for Temporal Reasoning in Multi-session Agents [80.33280979339123]
強化学習(RL)を用いた時間認識メモリ選択ポリシーを学習するフレームワークであるMemory-T1を紹介する。
Time-Dialogベンチマークでは、Memory-T1が7Bモデルを67.0%に引き上げ、オープンソースモデルの新たな最先端パフォーマンスを確立した。
論文 参考訳(メタデータ) (2025-12-23T06:37:29Z) - Convomem Benchmark: Why Your First 150 Conversations Don't Need RAG [43.50649999164793]
本稿では,75,336組の質問応答対を含む対話型メモリ評価のためのベンチマークを提案する。
対話記憶と検索強化生成の関係について検討する。
論文 参考訳(メタデータ) (2025-11-13T17:25:46Z) - MemSearcher: Training LLMs to Reason, Search and Manage Memory via End-to-End Reinforcement Learning [73.27233666920618]
本稿では,メモリを反復的に保持し,現在のターンと組み合わせたエージェントワークフローであるMemSearcherを提案する。
それぞれのターンで、MemSearcherはユーザーの質問をメモリに融合させ、推論トレースを生成し、検索アクションを実行し、メモリを更新してタスクの解決に必要な情報のみを保持する。
我々は,MemSearcher Agents の推論,検索戦略,メモリ管理を協調的に最適化する,エンドツーエンドの RL フレームワークである Multi-context GRPO を紹介する。
論文 参考訳(メタデータ) (2025-11-04T18:27:39Z) - MEM1: Learning to Synergize Memory and Reasoning for Efficient Long-Horizon Agents [84.62985963113245]
我々は,長時間のマルチターンタスクに対して,エージェントが一定のメモリで動作可能な,エンドツーエンドの強化学習フレームワークMEM1を紹介する。
各ターンでMEM1は、メモリ統合と推論を共同でサポートするコンパクトな共有内部状態を更新する。
その結果,MEM1-7Bは16目的のマルチホップQAタスクにおいて,Qwen2.5-14B-Instructと比較してメモリ使用量を3.7倍削減し,3.5倍の性能向上を示す。
論文 参考訳(メタデータ) (2025-06-18T19:44:46Z) - Mem0: Building Production-Ready AI Agents with Scalable Long-Term Memory [0.5584627289325719]
大規模言語モデル(LLM)は、文脈的に一貫性のある応答を生成する際、顕著な進歩を示した。
しかし、それらの固定されたコンテキストウィンドウは、長時間のマルチセッション対話に対する一貫性を維持するための根本的な課題を生じさせる。
私たちはMem0というスケーラブルなメモリ中心アーキテクチャを導入し、進行中の会話から健全な情報を動的に抽出し、統合し、取得することでこの問題に対処します。
論文 参考訳(メタデータ) (2025-04-28T01:46:35Z) - Human-inspired Episodic Memory for Infinite Context LLMs [20.265521531429943]
大きな言語モデル(LLM)は目覚ましい能力を示しているが、それでも広範なコンテキストの処理に苦戦している。
EM-LLMは,ヒトのエピソード記憶と事象認識の重要な側面をLCMに組み込む新しい手法である。
EM-LLMは、ベイジアン・サプライズとグラフ理論境界修正の組み合わせを用いて、トークンの列をコヒーレントなエピソード事象に整理する。
論文 参考訳(メタデータ) (2024-07-12T17:34:03Z) - Sports-Traj: A Unified Trajectory Generation Model for Multi-Agent Movement in Sports [53.637837706712794]
任意の軌道をマスク入力として処理する統一軌道生成モデルUniTrajを提案する。
具体的には,空間特徴抽出のためのトランスフォーマーエンコーダ内に埋め込まれたゴースト空間マスキング(GSM)モジュールを紹介する。
バスケットボールU,サッカーU,サッカーUの3つの実践的スポーツデータセットをベンチマークして評価を行った。
論文 参考訳(メタデータ) (2024-05-27T22:15:23Z) - An Empirical Study of Multimodal Model Merging [148.48412442848795]
モデルマージは、異なるタスクでトレーニングされた複数のモデルを融合してマルチタスクソリューションを生成するテクニックである。
我々は、モダリティ固有のアーキテクチャのビジョン、言語、およびクロスモーダルトランスフォーマーをマージできる新しい目標に向けて研究を行っている。
本稿では,重み間の距離を推定し,マージ結果の指標となる2つの指標を提案する。
論文 参考訳(メタデータ) (2023-04-28T15:43:21Z) - Differentiable Reasoning over a Virtual Knowledge Base [156.94984221342716]
コーパスを仮想知識ベース(KB)として,複雑なマルチホップ質問に答えるタスクについて検討する。
特に、コーパス内のエンティティの参照間の関係の経路をソフトに追従し、KBのようにテキストデータをトラバースするDrKITについて述べる。
DrKITは非常に効率的で、既存のマルチホップシステムよりも毎秒10-100倍のクエリを処理する。
論文 参考訳(メタデータ) (2020-02-25T03:13:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。