論文の概要: Coarse-to-Fine Grounded Memory for LLM Agent Planning
- arxiv url: http://arxiv.org/abs/2508.15305v1
- Date: Thu, 21 Aug 2025 06:50:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.21701
- Title: Coarse-to-Fine Grounded Memory for LLM Agent Planning
- Title(参考訳): LLMエージェント計画のための粗大な接地記憶
- Authors: Wei Yang, Jinwei Xiao, Hongming Zhang, Qingyang Zhang, Yanna Wang, Bo Xu,
- Abstract要約: 本稿では,大規模言語モデルを用いた粗大な記憶を基盤とする新しいフレームワークを提案する。
我々の研究は、環境情報を粗い焦点に置き、トレーニングタスクにおける体験収集をガイドする。
推測すると、Oursは計画を支援するためのタスク関連エクスペリエンスとヒントを取得する。
- 参考スコア(独自算出の注目度): 29.3251327624294
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in Large Language Models (LLMs) have driven growing interest in LLM-based agents for complex planning tasks. To avoid costly agent training, many studies adopted memory mechanism that enhances LLM with offline experiences or online trajectory analysis. However, existing works focus on single-granularity memory derived from dynamic environmental interactions, which are inherently constrained by the quality of the collected experiences. This limitation, in turn, constrain the diversity of knowledge and the flexibility of planning. We propose Coarse-to-Fine Grounded Memory (\Ours{}), a novel framework that grounds coarse-to-fine memories with LLM, thereby fully leverage them for flexible adaptation to diverse scenarios. \Ours{} grounds environmental information into coarse-grained focus points to guide experience collection in training tasks, followed by grounding of actionable hybrid-grained tips from each experience. At inference, \Ours{} retrieves task-relevant experiences and tips to support planning. When facing environmental anomalies, the LLM grounds the current situation into fine-grained key information, enabling flexible self-QA reflection and plan correction.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、複雑な計画タスクのためのLLMベースのエージェントへの関心を高めている。
コストのかかるエージェントトレーニングを避けるため、多くの研究は、オフライン体験やオンライン軌道分析によるLCMを強化するメモリメカニズムを採用した。
しかし、既存の研究は、動的環境相互作用から派生した単一粒度メモリに焦点を当てており、これは収集された経験の質によって本質的に制約されている。
この制限により、知識の多様性と計画の柔軟性が制限される。
我々は,LLMで粗粒度記憶を基盤とする新しいフレームワークである粗粒度グランドメモリ(\Ours{})を提案する。
Ours{}は、環境情報を粗いフォーカスポイントに置き、トレーニングタスクにおける体験収集をガイドし、その後、各経験から実行可能なハイブリッドなヒントをグラデーションする。
推測すると、 \Ours{} はタスク関連エクスペリエンスと、計画をサポートするためのヒントを取得する。
環境異常に直面した場合、LLMは現在の状況をきめ細かなキー情報に分類し、フレキシブルな自己QA反射と計画修正を可能にする。
関連論文リスト
- Growing Through Experience: Scaling Episodic Grounding in Language Models [67.27024505353384]
言語モデル(LM)は、物理的な計画タスクに長けるために、堅牢なエピソジックグラウンドを必要とする。
現在のエピソジックな基盤アプローチは、スケーラビリティと統合に苦労しています。
本稿では,より小規模から大規模にエピソジックな動作を効果的に伝達する,スケーラブルな弱から強のエピソジックな学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-02T04:52:19Z) - Navigating Motion Agents in Dynamic and Cluttered Environments through LLM Reasoning [69.5875073447454]
本稿では,大規模言語モデル(LLM)によって強化された動作エージェントを,動的・乱雑な環境における自律的なナビゲーションに向けて前進させる。
トレーニング不要なフレームワークは、マルチエージェント調整、クローズドループ計画、動的障害物回避を、リトレーニングや微調整なしでサポートしています。
論文 参考訳(メタデータ) (2025-03-10T13:39:09Z) - MINDSTORES: Memory-Informed Neural Decision Synthesis for Task-Oriented Reinforcement in Embodied Systems [0.5662299435213421]
本研究では,体験向上型計画フレームワークMINDSTORESを導入し,エージェントがメンタルモデルを構築し,活用できるようにする。
MINDSTORES は,既存のメモリベース LLM プランナよりも学習し,その知識を適用している。
論文 参考訳(メタデータ) (2025-01-31T17:15:33Z) - Language Agents Meet Causality -- Bridging LLMs and Causal World Models [50.79984529172807]
因果表現学習を大規模言語モデルと統合する枠組みを提案する。
このフレームワークは、自然言語表現に関連付けられた因果変数を持つ因果世界モデルを学ぶ。
本研究では,時間的スケールと環境の複雑さを考慮した因果推論と計画課題の枠組みを評価する。
論文 参考訳(メタデータ) (2024-10-25T18:36:37Z) - From Words to Actions: Unveiling the Theoretical Underpinnings of LLM-Driven Autonomous Systems [59.40480894948944]
大規模言語モデル (LLM) は、物理世界の意思決定問題を解くことができる。
このモデルの下で、LLM Plannerは、プロンプトを介して言語ベースのサブゴールを反復的に生成することにより、部分的に観測可能なマルコフ決定プロセス(POMDP)をナビゲートする。
我々は,事前学習したLLMプランナーが,文脈内学習を通じてベイズ的集計模倣学習(BAIL)を効果的に行うことを証明した。
論文 参考訳(メタデータ) (2024-05-30T09:42:54Z) - UNDIAL: Self-Distillation with Adjusted Logits for Robust Unlearning in Large Language Models [12.45822383965784]
本稿では,UnDIAL(Unlearning via Self-Distillation on Adjusted Logits)を紹介する。
本手法では, 自己蒸留を利用してロジットを調整し, ターゲットトークンの影響を選択的に低減する。
論文 参考訳(メタデータ) (2024-02-15T16:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。