論文の概要: Semantic XPath: Structured Agentic Memory Access for Conversational AI
- arxiv url: http://arxiv.org/abs/2603.01160v1
- Date: Sun, 01 Mar 2026 15:56:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.542298
- Title: Semantic XPath: Structured Agentic Memory Access for Conversational AI
- Title(参考訳): Semantic XPath: 会話型AIのための構造化エージェントメモリアクセス
- Authors: Yifan Simon Liu, Ruifan Wu, Liam Gallagher, Jiazhou Liang, Armin Toroghi, Scott Sanner,
- Abstract要約: コンテキスト内メモリのアプローチは、コンテキスト-ウィンドウの制限下でのスケールが不十分なモデル入力に、増大する履歴を付加する。
本研究では,木構造メモリモジュールであるSemanticを提案する。
また、構造化メモリとクエリ実行の詳細を可視化する、エンドツーエンドのConvAIデモシステムであるSemanticPathX Chatを紹介する。
- 参考スコア(独自算出の注目度): 20.461904943047468
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conversational AI (ConvAI) agents increasingly maintain structured memory to support long-term, task-oriented interactions. In-context memory approaches append the growing history to the model input, which scales poorly under context-window limits. RAG-based methods retrieve request-relevant information, but most assume flat memory collections and ignore structure. We propose Semantic XPath, a tree-structured memory module to access and update structured conversational memory. Semantic XPath improves performance over flat-RAG baselines by 176.7% while using only 9.1% of the tokens required by in-context memory. We also introduce SemanticXPath Chat, an end-to-end ConvAI demo system that visualizes the structured memory and query execution details. Overall, this paper demonstrates a candidate for the next generation of long-term, task-oriented ConvAI systems built on structured memory.
- Abstract(参考訳): 会話型AI(ConvAI)エージェントは、長期的なタスク指向インタラクションをサポートするため、構造化メモリをますます維持する。
コンテキスト内メモリのアプローチは、コンテキスト-ウィンドウの制限下でのスケールが不十分なモデル入力に、増大する履歴を付加する。
RAGベースのメソッドは要求関連情報を検索するが、ほとんどの場合フラットメモリのコレクションを前提として構造を無視する。
本研究では,木構造メモリモジュールであるSemantic XPathを提案する。
Semantic XPathはフラットRAGベースラインよりも176.7%向上し、インコンテキストメモリに必要なトークンの9.1%しか使用していない。
また、構造化メモリとクエリ実行の詳細を可視化する、エンドツーエンドのConvAIデモシステムであるSemanticXPath Chatを紹介する。
本稿では,構造化メモリ上に構築されたタスク指向型ConvAIシステムの次世代候補について述べる。
関連論文リスト
- RMBench: Memory-Dependent Robotic Manipulation Benchmark with Insights into Policy Design [77.30163153176954]
RMBenchは、メモリの複雑さの複数のレベルにまたがる9つの操作タスクからなるシミュレーションベンチマークである。
Mem-0は、制御アブレーション研究をサポートするために設計された明示的なメモリコンポーネントを備えたモジュラー操作ポリシーである。
既存のポリシにおけるメモリ関連の制限を特定し、アーキテクチャ設計の選択がメモリパフォーマンスに与える影響に関する実証的な洞察を提供する。
論文 参考訳(メタデータ) (2026-03-01T18:59:59Z) - Graph-based Agent Memory: Taxonomy, Techniques, and Applications [63.70340159016138]
メモリはLarge Language Model(LLM)ベースのエージェントの中核モジュールとして出現する。
さまざまなパラダイムの中でグラフは、関係依存をモデル化する本質的な能力のため、エージェントメモリの強力な構造として際立っている。
本調査では, エージェントメモリの総合的な検討について, グラフベースの観点から述べる。
論文 参考訳(メタデータ) (2026-02-05T13:49:05Z) - Memory Matters More: Event-Centric Memory as a Logic Map for Agent Searching and Reasoning [55.251697395358285]
大規模言語モデル(LLM)は、環境を推論し、計画し、相互作用するインテリジェントエージェントとして、ますます多くデプロイされている。
長期のシナリオに効果的にスケールするには、そのようなエージェントの重要な機能は、過去の経験を保持し、整理し、取り出すことができるメモリメカニズムである。
イベント理論にインスパイアされたイベント中心のメモリフレームワークであるCompassMemを提案する。
論文 参考訳(メタデータ) (2026-01-08T08:44:07Z) - Beyond Fact Retrieval: Episodic Memory for RAG with Generative Semantic Workspaces [5.110309385104824]
大きな言語モデル(LLM)は、長いコンテキスト推論において根本的な課題に直面します。
現在のソリューションでは、エピソードイベントを通じてエンティティを追跡するのに必要な、時空間で記述された物語表現を構築することができない。
我々は,ニューロインスパイアされた生成記憶フレームワークである textbf Generative Semantic Workspace (GSW) を提案する。
論文 参考訳(メタデータ) (2025-11-10T19:59:34Z) - Evaluating Long-Term Memory for Long-Context Question Answering [100.1267054069757]
質問応答タスクにアノテートした合成長文対話のベンチマークであるLoCoMoを用いて,メモリ拡張手法の体系的評価を行う。
以上の結果から,メモリ拡張アプローチによりトークン使用率が90%以上削減され,競争精度が向上した。
論文 参考訳(メタデータ) (2025-10-27T18:03:50Z) - SGMem: Sentence Graph Memory for Long-Term Conversational Agents [14.89396085814917]
チャンク単位内の文レベルグラフとして対話を表現するSGMem(Sentence Graph Memory)を紹介する。
SGMem は, 長期会話型質問応答において, 精度を向上し, 高いベースラインを向上することを示す。
論文 参考訳(メタデータ) (2025-09-25T14:21:44Z) - From Single to Multi-Granularity: Toward Long-Term Memory Association and Selection of Conversational Agents [79.87304940020256]
大言語モデル(LLM)は会話エージェントで広く採用されている。
MemGASは、多粒度アソシエーション、適応選択、検索を構築することにより、メモリ統合を強化するフレームワークである。
4つの長期メモリベンチマークの実験により、MemGASは質問応答と検索タスクの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-26T06:13:07Z) - Rethinking Memory in AI: Taxonomy, Operations, Topics, and Future Directions [55.19217798774033]
メモリは、大規模言語モデル(LLM)ベースのエージェントを支える、AIシステムの基本コンポーネントである。
本稿ではまず,メモリ表現をパラメトリックおよびコンテキスト形式に分類する。
次に、コンソリデーション、更新、インデックス付け、フォッティング、検索、圧縮の6つの基本的なメモリ操作を紹介します。
論文 参考訳(メタデータ) (2025-05-01T17:31:33Z) - Mem0: Building Production-Ready AI Agents with Scalable Long-Term Memory [0.5584627289325719]
大規模言語モデル(LLM)は、文脈的に一貫性のある応答を生成する際、顕著な進歩を示した。
しかし、それらの固定されたコンテキストウィンドウは、長時間のマルチセッション対話に対する一貫性を維持するための根本的な課題を生じさせる。
私たちはMem0というスケーラブルなメモリ中心アーキテクチャを導入し、進行中の会話から健全な情報を動的に抽出し、統合し、取得することでこの問題に対処します。
論文 参考訳(メタデータ) (2025-04-28T01:46:35Z) - From Isolated Conversations to Hierarchical Schemas: Dynamic Tree Memory Representation for LLMs [9.822315423251395]
動的木構造メモリ表現を活用するアルゴリズムであるMemTreeを導入し、情報の組織化、検索、統合を最適化する。
我々のアルゴリズムは、新しい情報や既存の情報のセマンティック埋め込みを比較して、このメモリ構造を動的に適応させ、モデルのコンテキスト認識を強化する。
論文 参考訳(メタデータ) (2024-10-17T21:47:11Z) - Walking Down the Memory Maze: Beyond Context Limit through Interactive
Reading [63.93888816206071]
我々は,長いコンテキストを要約ノードのツリーに処理する手法であるMemWalkerを紹介した。クエリを受信すると,モデルがこのツリーをナビゲートして関連する情報を検索し,十分な情報を収集すると応答する。
その結果,MemWalkerは,テキストを対話的に読み取る際の推論ステップを強調し,クエリに関連するテキストセグメントをピンポイントすることで,説明性の向上を図っている。
論文 参考訳(メタデータ) (2023-10-08T06:18:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。