論文の概要: GLOVE: Global Verifier for LLM Memory-Environment Realignment
- arxiv url: http://arxiv.org/abs/2601.19249v1
- Date: Tue, 27 Jan 2026 06:32:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.204112
- Title: GLOVE: Global Verifier for LLM Memory-Environment Realignment
- Title(参考訳): GLOVE: LLMメモリ環境実現のためのグローバル検証器
- Authors: Xingkun Yin, Hongyang Du,
- Abstract要約: 本稿では,相対的な真理の概念を確立することにより,大規模言語モデルメモリシステムの設計次元を新たに導入するフレームワークを提案する。
GLOVEは、地味な監督やモデルのイントロスペクションに強く依存することなく、メモリの検証と更新を行うことで、メモリ環境の調整を可能にする。
以上の結果から,GLOVEはエージェントの成功率を大幅に改善し,自己進化可能な認知エージェントへの堅牢な経路が示唆された。
- 参考スコア(独自算出の注目度): 15.456830820378656
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most existing memory-enhanced Large Language Model (LLM) approaches implicitly assume that memory validity can be established either through external evaluators that provide task-specific success signals or through internal model cognition, such as reflection, for editing memory entries. However, these assumptions often break down in practical environments with dynamic drifts. We propose the Global Verifier (GLOVE), a framework that introduces a new design dimension for LLM memory systems by establishing a relative notion of truth. Through active probing to detect inconsistencies between retrieved memories and fresh observations, GLOVE enables memory-environment realignment by verifying and updating memory without access to ground-truth supervision or strong reliance on model introspection. We evaluate GLOVE on diverse benchmarks spanning web navigation, planning, and control, augmented with controlled environmental drifts that introduce non-stationarity beyond the original benchmark settings. Our results show that GLOVE substantially improves agent success rates, suggesting a robust pathway to cognitive agents capable of self-evolving.
- Abstract(参考訳): 既存のメモリ強化Large Language Model (LLM) アプローチでは、タスク固有の成功信号を提供する外部評価器や、リフレクションなどの内部モデル認知を通じてメモリエントリを編集することで、メモリの妥当性を確立することができると暗黙的に仮定している。
しかしながら、これらの仮定は動的ドリフトを持つ現実的な環境でしばしば崩壊する。
GLOVE(Global Verifier)は,LLMメモリシステムにおいて,相対的な真理の概念を確立することにより,新たな設計次元を導入するフレームワークである。
GLOVEは、検索した記憶と新鮮な観察の不整合を検出するためにアクティブなプロービングを通じて、地味な監督やモデルイントロスペクションへの強い依存なしに、メモリの検証と更新を行うことにより、メモリ環境の調整を可能にする。
我々は,Webナビゲーション,計画,制御にまたがる多様なベンチマーク上で,GLOVEを評価し,当初のベンチマーク設定を超えて非定常性を導入する制御された環境ドリフトを付加した。
以上の結果から,GLOVEはエージェントの成功率を大幅に改善し,自己進化可能な認知エージェントへの堅牢な経路が示唆された。
関連論文リスト
- Learning from Supervision with Semantic and Episodic Memory: A Reflective Approach to Agent Adaptation [11.819481846962447]
本研究では,事前訓練された大規模言語モデル上に構築されたエージェントが,パラメータ更新なしでラベル付き例からターゲット分類関数を学習する方法について検討する。
我々のフレームワークは、エピソードメモリを使用して、インスタンスレベルの批判を保存し、それらを再利用可能なタスクレベルのガイダンスに蒸留する。
我々の研究は、より適応的で解釈可能なLLMエージェントを構築するためのメモリ駆動型反射学習の可能性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-10-22T17:58:03Z) - MemGen: Weaving Generative Latent Memory for Self-Evolving Agents [57.1835920227202]
本稿では,エージェントに人間的な認知機能を持たせる動的生成記憶フレームワークであるMemGenを提案する。
MemGenは、エージェントが推論を通して潜在記憶をリコールし、増大させ、記憶と認知の密接なサイクルを生み出すことを可能にする。
論文 参考訳(メタデータ) (2025-09-29T12:33:13Z) - SEDM: Scalable Self-Evolving Distributed Memory for Agents [23.182291416527764]
SEDMは、メモリをパッシブリポジトリからアクティブな自己最適化コンポーネントに変換する検証可能で適応的なフレームワークである。
また,SEDMは,強いメモリベースラインに比べてトークンオーバーヘッドを低減しつつ,推論精度を向上することを示した。
結果は、SEDMをオープンエンドのマルチエージェントコラボレーションのためのスケーラブルで持続可能なメモリメカニズムとして強調する。
論文 参考訳(メタデータ) (2025-09-11T14:37:37Z) - Discovering and Reasoning of Causality in the Hidden World with Large Language Models [109.62442253177376]
我々はCausal representatiOn AssistanT(COAT)と呼ばれる新しいフレームワークを開発し、因果発見に有用な測定変数を提案する。
大規模言語モデル (LLM) と因果関係を直接推論する代わりに、COAT は中間因果発見結果から LLM へのフィードバックを構築し、提案した変数を洗練させる。
論文 参考訳(メタデータ) (2024-02-06T12:18:54Z) - Self-RAG: Learning to Retrieve, Generate, and Critique through
Self-Reflection [74.51523859064802]
我々は、自己回帰検索拡張生成(Self-RAG)と呼ばれる新しいフレームワークを導入する。
自己RAGは、検索と自己回帰によってLMの品質と事実性を高める。
様々なタスクセットにおいて、最先端のLCMや検索強化モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-17T18:18:32Z) - Analysis of the Memorization and Generalization Capabilities of AI
Agents: Are Continual Learners Robust? [91.682459306359]
連続学習(CL)では、AIエージェントが動的環境下で非定常データストリームから学習する。
本稿では,過去の知識を維持しつつ,動的環境への堅牢な一般化を実現するための新しいCLフレームワークを提案する。
提案フレームワークの一般化と記憶性能を理論的に解析した。
論文 参考訳(メタデータ) (2023-09-18T21:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。