論文の概要: From Lossy to Verified: A Provenance-Aware Tiered Memory for Agents
- arxiv url: http://arxiv.org/abs/2602.17913v1
- Date: Fri, 20 Feb 2026 00:21:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.189345
- Title: From Lossy to Verified: A Provenance-Aware Tiered Memory for Agents
- Title(参考訳): 紛失から検証へ:エージェントの注意を喚起する記憶
- Authors: Qiming Zhu, Shunian Chen, Rui Yu, Zhehao Wu, Benyou Wang,
- Abstract要約: TierMemは、推論時のエビデンス割り当て問題として検索をキャストする。
LoCoMoでは、TierMemが0.851の精度を実現し、入力トークンを54.1%、レイテンシを60.7%削減した。
- 参考スコア(独自算出の注目度): 26.35084166166742
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Long-horizon agents often compress interaction histories into write-time summaries. This creates a fundamental write-before-query barrier: compression decisions are made before the system knows what a future query will hinge on. As a result, summaries can cause unverifiable omissions -- decisive constraints (e.g., allergies) may be dropped, leaving the agent unable to justify an answer with traceable evidence. Retaining raw logs restores an authoritative source of truth, but grounding on raw logs by default is expensive: many queries are answerable from summaries, yet raw grounding still requires processing far longer contexts, inflating token consumption and latency. We propose TierMem, a provenance-linked framework that casts retrieval as an inference-time evidence allocation problem. TierMem uses a two-tier memory hierarchy to answer with the cheapest sufficient evidence: it queries a fast summary index by default, and a runtime sufficiency router Escalates to an immutable raw-log store only when summary evidence is insufficient. TierMem then writes back verified findings as new summary units linked to their raw sources. On LoCoMo, TierMem achieves 0.851 accuracy (vs.0.873 raw-only) while reducing input tokens by 54.1\% and latency by 60.7%.
- Abstract(参考訳): ロングホライゾンエージェントは、しばしば相互作用履歴を書き込み時要約に圧縮する。
圧縮決定は、システムが将来のクエリが何をヒンジするかを知る前に行われる。
その結果、サマリーは検証不可能な省略を引き起こす可能性があり、決定的な制約(例えばアレルギー)は取り下げられ、エージェントは追跡可能な証拠で答えを正当化することができない。
生ログの保持は、信頼できる真実のソースを復元するが、デフォルトで生ログを基盤とするのは非常に高価である。
提案するTierMemは,検索を推論時エビデンス割り当て問題とみなすプロビデンスリンクフレームワークである。
TierMemは、2階層のメモリ階層を使用して、最も安価な十分なエビデンスに答える: 高速なサマリインデックスをデフォルトでクエリし、実行時のサフィリエイトルータは、サマリエビデンスが不十分な場合にのみ、不変な生ログストアにエスカレートする。
TierMemは、検証済みの結果を元のソースにリンクした新しい要約ユニットとして書き戻す。
LoCoMoでは、TierMemは0.851の精度(vs.0.873の生のみ)を達成し、入力トークンを54.1\%、レイテンシを60.7%削減した。
関連論文リスト
- ImpliRet: Benchmarking the Implicit Fact Retrieval Challenge [50.93758649363798]
Impliretは、推論の課題をドキュメント側処理にシフトするベンチマークである。
我々は,この環境下で苦戦している,疎水・密集したレトリバーの幅を評価した。
論文 参考訳(メタデータ) (2025-06-17T11:08:29Z) - Collapse of Dense Retrievers: Short, Early, and Literal Biases Outranking Factual Evidence [56.09494651178128]
検索モデルは、Retrieval-Augmented Generation (RAG)のような情報検索(IR)アプリケーションで一般的に使用される。
我々は、Dragon+やContrieverのようなリトリーバーに対する、短いドキュメントの好みなどのバイアスの影響を定量化する。
私たちは大きな脆弱性を発見し、リトリバーが短いドキュメント、早い位置、繰り返しのエンティティ、リテラルマッチを好んで、答えの存在を無視しながら表示します。
論文 参考訳(メタデータ) (2025-03-06T23:23:13Z) - Evidence Contextualization and Counterfactual Attribution for Conversational QA over Heterogeneous Data with RAG Systems [4.143039012104666]
Retrieval Augmented Generation(RAG)は、会話質問回答(ConvQA)を介して企業のデータと対話するためのバックボーンとして機能する。
本研究では,RAGONITE(RAGONITE,RAGONITE,RAGONITE,RAGONITE,RAAG,RAGONITE,RAGONITE,RAGONITE,RAGONITE,RAAG,RAGONITE ,RAGONITE,RAGONITE,RAGONITE,RAAG,RAGONITE,RAGONITE,RAGONITE,RAGONITE,RAGONITE,RAGONITE,RAGONITE,RAGO NITE)について述べる。
論文 参考訳(メタデータ) (2024-12-13T21:28:17Z) - Fact Checking Beyond Training Set [64.88575826304024]
本稿では,レトリバーリーダが,あるドメインのラベル付きデータに基づいてトレーニングし,別のドメインで使用する場合,性能劣化に悩まされることを示す。
本稿では,レトリバー成分を分散シフトに対して頑健にするための逆アルゴリズムを提案する。
次に、これらのデータセットから8つの事実チェックシナリオを構築し、モデルと強力なベースラインモデルのセットを比較します。
論文 参考訳(メタデータ) (2024-03-27T15:15:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。