論文の概要: Memory Transfer Planning: LLM-driven Context-Aware Code Adaptation for Robot Manipulation
- arxiv url: http://arxiv.org/abs/2509.24160v1
- Date: Mon, 29 Sep 2025 01:18:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.671738
- Title: Memory Transfer Planning: LLM-driven Context-Aware Code Adaptation for Robot Manipulation
- Title(参考訳): メモリ転送計画:ロボット操作のためのLLM駆動コンテキスト対応コード適応
- Authors: Tomoyuki Kagaya, Subramanian Lakshmi, Yuxuan Lou, Thong Jing Yuan, Jayashree Karlekar, Sugiri Pranata, Natsuki Murakami, Akira Kinose, Yang You,
- Abstract要約: 大規模言語モデル(LLM)はロボット操作においてますます研究されているが、既存の多くの手法は新しい環境への適応に苦慮している。
本稿では,異なる環境からの制御コード例を手続き的知識として活用する,メモリ転送計画(MTP)を紹介する。
- 参考スコア(独自算出の注目度): 9.054757790552314
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models (LLMs) are increasingly explored in robot manipulation, but many existing methods struggle to adapt to new environments. Many systems require either environment-specific policy training or depend on fixed prompts and single-shot code generation, leading to limited transferability and manual re-tuning. We introduce Memory Transfer Planning (MTP), a framework that leverages successful control-code examples from different environments as procedural knowledge, using them as in-context guidance for LLM-driven planning. Specifically, MTP (i) generates an initial plan and code using LLMs, (ii) retrieves relevant successful examples from a code memory, and (iii) contextually adapts the retrieved code to the target setting for re-planning without updating model parameters. We evaluate MTP on RLBench, CALVIN, and a physical robot, demonstrating effectiveness beyond simulation. Across these settings, MTP consistently improved success rate and adaptability compared with fixed-prompt code generation, naive retrieval, and memory-free re-planning. Furthermore, in hardware experiments, leveraging a memory constructed in simulation proved effective. MTP provides a practical approach that exploits procedural knowledge to realize robust LLM-based planning across diverse robotic manipulation scenarios, enhancing adaptability to novel environments and bridging simulation and real-world deployment.
- Abstract(参考訳): 大規模言語モデル(LLM)はロボット操作においてますます研究されているが、既存の多くの手法は新しい環境への適応に苦慮している。
多くのシステムは環境固有のポリシートレーニングを必要とするか、固定プロンプトと単発コード生成に依存している。
我々は,異なる環境からの制御コード例を手続き的知識として活用するフレームワークであるメモリ転送計画(MTP)を導入し,LLM駆動型計画のためのコンテキスト内ガイダンスとして利用した。
特にMTP
i) LLMを使用して初期計画とコードを生成する。
(ii)コードメモリから関連する成功例を検索し、
(iii) モデルパラメータを更新することなく、検索したコードをターゲット設定にコンテキスト適応して再計画する。
RLBench, CALVIN, および物理ロボット上でのMPPの評価を行い, シミュレーション以上の効果を示した。
これらの設定全体において、MPPは、固定プロンプトコード生成、単純検索、メモリフリーの再計画と比較して、成功率と適応性を一貫して改善した。
さらに、ハードウェア実験では、シミュレーションで構築されたメモリを活用することが効果的であることが判明した。
MTPは手続き的な知識を活用して、多様なロボット操作シナリオにまたがる堅牢なLCMベースの計画の実現、新しい環境への適応性の向上、ブリッジングシミュレーションと実世界の展開を実現する実践的なアプローチを提供する。
関連論文リスト
- MALMM: Multi-Agent Large Language Models for Zero-Shot Robotics Manipulation [62.854649499866774]
大規模言語モデル(LLM)は、ロボティクスの操作やナビゲーションなど、さまざまな領域にまたがる優れた計画能力を示している。
特殊なLLMエージェント間で高レベル計画および低レベル制御コード生成を分散する新しいマルチエージェントLLMフレームワークを提案する。
長軸タスクを含む9つのRLBenchタスクに対するアプローチを評価し、ゼロショット環境でロボット操作を解く能力を実証した。
論文 参考訳(メタデータ) (2024-11-26T17:53:44Z) - Interactive and Expressive Code-Augmented Planning with Large Language Models [62.799579304821826]
大きな言語モデル(LLM)は、常識的推論と対話的な意思決定において強力な能力を示す。
近年,制御フローなどのコード・アジャセント技術を用いてLCM出力を構造化し,計画性能を向上させる技術が提案されている。
完全コード表現で動的なLEM計画手法であるREPL-Planを提案する。
論文 参考訳(メタデータ) (2024-11-21T04:23:17Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - LLM can Achieve Self-Regulation via Hyperparameter Aware Generation [88.69052513433603]
大規模言語モデル (LLM) は、生成されたテキストを制御するために様々な復号法を用いる。
LLMはこれらのデコード戦略の存在を意識し、自己統制できるのか?
ハイパーパラメータ・アウェア・ジェネレーション(HAG)と呼ばれる新しいテキスト生成パラダイムを提案する。
論文 参考訳(メタデータ) (2024-02-17T11:18:22Z) - Exploring Parameter-Efficient Fine-Tuning Techniques for Code Generation with Large Language Models [11.845239346943067]
パラメータ効率のよい微調整(PEFT)は、大規模言語モデル(LLM)をタスク固有のデータに効率的に専門化するための有望なアプローチである。
本研究は,PEFTと量子化を組み合わせることで,より大きなLCMをチューニングし,メモリ使用量を大幅に削減する可能性を明らかにする。
論文 参考訳(メタデータ) (2023-08-21T04:31:06Z) - Performance-Weighed Policy Sampling for Meta-Reinforcement Learning [1.77898701462905]
強化モデル非依存メタラーニング(E-MAML)は、少数のトレーニング例からポリシー関数の高速収束を生成する。
E-MAMLは、以前のタスクの環境で学んだ一連のポリシーパラメータを保持する。
E-MAMLを強化学習(RL)ベースのオンラインフォールトトレラント制御スキームの開発に適用する。
論文 参考訳(メタデータ) (2020-12-10T23:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。