論文の概要: Large-Language-Model-Guided State Estimation for Partially Observable Task and Motion Planning
- arxiv url: http://arxiv.org/abs/2603.03704v1
- Date: Wed, 04 Mar 2026 04:07:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.177001
- Title: Large-Language-Model-Guided State Estimation for Partially Observable Task and Motion Planning
- Title(参考訳): 部分観測可能なタスクと動作計画のための大域モデル誘導状態推定
- Authors: Yoonwoo Kim, Raghav Arora, Roberto Martín-Martín, Peter Stone, Ben Abbatematteo, Yoonchang Sung,
- Abstract要約: 本研究では,(1)特定の場所で発見される可能性が高くなること,(2)類似した物体が同一位置にあること,(2)異種物体が一緒に発見される可能性が低いこと,の2つの共通センス知識を取り入れることを提案する。
CoCo-TAMPは、シミュレーションにおける計画時間と実行時間の平均62.7、実世界の実演では72.6の削減を実現している。
- 参考スコア(独自算出の注目度): 30.00573299632629
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robot planning in partially observable environments, where not all objects are known or visible, is a challenging problem, as it requires reasoning under uncertainty through partially observable Markov decision processes. During the execution of a computed plan, a robot may unexpectedly observe task-irrelevant objects, which are typically ignored by naive planners. In this work, we propose incorporating two types of common-sense knowledge: (1) certain objects are more likely to be found in specific locations; and (2) similar objects are likely to be co-located, while dissimilar objects are less likely to be found together. Manually engineering such knowledge is complex, so we explore leveraging the powerful common-sense reasoning capabilities of large language models (LLMs). Our planning and execution framework, CoCo-TAMP, introduces a hierarchical state estimation that uses LLM-guided information to shape the belief over task-relevant objects, enabling efficient solutions to long-horizon task and motion planning problems. In experiments, CoCo-TAMP achieves an average reduction of 62.7 in planning and execution time in simulation, and 72.6 in real-world demonstrations, compared to a baseline that does not incorporate either type of common-sense knowledge.
- Abstract(参考訳): 部分的に観測可能な環境下でのロボットの計画は、すべての物体が既知のものや見えるものではなかったが、部分的に観測可能なマルコフ決定プロセスを通じて不確実性の下で推論する必要があるため、難しい問題である。
計算された計画の実行中、ロボットは予期せずタスク非関連なオブジェクトを観察するが、これは通常、単純プランナーによって無視される。
本研究では,(1)特定の場所で発見される可能性が高くなること,(2)類似した物体が同一位置にある可能性が低いこと,(2)異種物体が一緒に発見される可能性が低いこと,の2種類の常識知識を取り入れることを提案する。
このような知識を手作業で設計することは複雑であるため、大規模言語モデル(LLM)の強力な常識推論能力を活用することを検討する。
我々の計画および実行フレームワークであるCoCo-TAMPは、LLM誘導情報を用いてタスク関連オブジェクトに対する信念を形作る階層的状態推定を導入し、長期タスクや運動計画問題の効率的な解決を可能にした。
実験では、CoCo-TAMPはシミュレーションにおける計画時間と実行時間の平均62.7、実世界の実演では72.6の削減を実現している。
関連論文リスト
- OmniEVA: Embodied Versatile Planner via Task-Adaptive 3D-Grounded and Embodiment-aware Reasoning [50.45036742963495]
我々は,先進的な具体的推論とタスクプランニングを可能にする,多元的多元的プランナーであるOmniEVAを紹介する。
Task-Adaptive 3D Groundingメカニズムは、様々な実施タスクに対してコンテキスト対応の3Dグラウンドを可能にする。
Embodiment-Aware Reasoningフレームワークは、タスクの目標と実施制約を推論ループに組み込む。
論文 参考訳(メタデータ) (2025-09-11T10:32:22Z) - ThinkGeo: Evaluating Tool-Augmented Agents for Remote Sensing Tasks [64.86209459039313]
ThinkGeoは、構造化ツールの使用とマルチステップ計画を通じて、リモートセンシングタスクにおけるツール拡張エージェントを評価するために設計されたエージェントベンチマークである。
我々はReActスタイルの対話ループを実装し,486 個の構造化エージェントタスク上でのオープンソース LLM とクローズドソース LLM の両方を1,773 個の専門家が検証した推論ステップで評価する。
分析の結果、ツールの精度とモデル間の計画整合性に顕著な相違が明らかになった。
論文 参考訳(メタデータ) (2025-05-29T17:59:38Z) - VSP: Assessing the dual challenges of perception and reasoning in spatial planning tasks for VLMs [102.36953558562436]
視覚言語モデル(VLM)は、エキサイティングな言語モデル(LM)のクラスである。
VLMの未調査能力の1つは、視覚空間計画である。
本研究は,これらのモデルにおける空間計画能力を概ね評価するベンチマークを提案する。
論文 参考訳(メタデータ) (2024-07-02T00:24:01Z) - Details Make a Difference: Object State-Sensitive Neurorobotic Task Planning [15.03025428687218]
オブジェクトの状態は現在の状態や状態を反映しており、ロボットのタスク計画と操作にとって重要である。
近年,LLM (Large Language Models) とVLM (Vision-Language Models) は,計画生成において顕著な能力を示している。
我々は、事前学習ニューラルネットワークによって強化されたタスク計画エージェントであるObject State-Sensitive Agent (OSSA)を紹介する。
論文 参考訳(メタデータ) (2024-06-14T12:52:42Z) - Unified Task and Motion Planning using Object-centric Abstractions of
Motion Constraints [56.283944756315066]
本稿では,タスクとモーションプランニングを一つの検索に統一するTAMP手法を提案する。
我々のアプローチは、オフザシェルフAIサーチの計算効率を活用して、物理的に実現可能な計画が得られるような、オブジェクト中心の動作制約の抽象化に基づいている。
論文 参考訳(メタデータ) (2023-12-29T14:00:20Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - EgoPlan-Bench: Benchmarking Multimodal Large Language Models for Human-Level Planning [84.6451394629312]
実世界のシナリオにおけるMLLMの計画能力を評価するベンチマークであるEgoPlan-Benchを紹介する。
EgoPlan-Benchは、人間レベルのタスクプランニングを実現するためのMLLMの改善のかなりの範囲を浮き彫りにする。
また,EgoPlan-Bench上でのモデル性能を効果的に向上する特殊命令チューニングデータセットであるEgoPlan-ITを提案する。
論文 参考訳(メタデータ) (2023-12-11T03:35:58Z) - Embodied Task Planning with Large Language Models [86.63533340293361]
本研究では,現場制約を考慮した地上計画のための具体的タスクにおけるTAsk Planing Agent (TaPA)を提案する。
推論の際には,オープンボキャブラリオブジェクト検出器を様々な場所で収集された多視点RGB画像に拡張することにより,シーン内の物体を検出する。
実験の結果,我々のTaPAフレームワークから生成されたプランは,LLaVAやGPT-3.5よりも大きなマージンで高い成功率が得られることがわかった。
論文 参考訳(メタデータ) (2023-07-04T17:58:25Z) - Effective Baselines for Multiple Object Rearrangement Planning in
Partially Observable Mapped Environments [5.32429768581469]
本研究の目的は, 自家用知的エージェントが部分観測可能性の下で効率的に再配置を計画できるようにすることである。
本研究では, モノリシック・モジュール型深層強化学習(DRL)法について検討した。
モノリシックDRL法は多目的再配置に必要な長期計画では成功しない。
また、再配置が必要なオブジェクトが環境に均一に分散されている場合、我々の欲張りのあるモジュラーエージェントは経験的に最適であることを示す。
論文 参考訳(メタデータ) (2023-01-24T08:03:34Z) - Sequence-Based Plan Feasibility Prediction for Efficient Task and Motion
Planning [36.300564378022315]
本稿では,移動環境における移動操作問題を解決するための学習可能なタスク・アンド・モーション・プランニング(TAMP)アルゴリズムを提案する。
本アルゴリズムのコアは,タスク計画,目標,初期状態を考慮したトランスフォーマーに基づく新しい学習手法であるPIGINetであり,タスク計画に関連する運動軌跡の発見確率を予測する。
論文 参考訳(メタデータ) (2022-11-03T04:12:04Z) - Learning to Search in Task and Motion Planning with Streams [20.003445874753233]
ロボット工学におけるタスク計画問題と動作計画問題は、個別のタスク変数に対するシンボリック計画と、連続状態および動作変数に対する動作最適化を組み合わせたものである。
対象と事実の集合を最優先的に拡張する幾何学的情報に基づく記号プランナを提案する。
ブロックスタッキング操作タスクにおいて,このアルゴリズムを7DOFロボットアームに適用する。
論文 参考訳(メタデータ) (2021-11-25T15:58:31Z) - Task Allocation for Multi-Robot Task and Motion Planning: a case for
Object Picking in Cluttered Workspaces [1.3535770763481902]
統合型マルチロボットタスクとモーションプランニング手法を提案する。
未知のオブジェクトの再配列を含むタスクを処理できる。
2つのフランカエミカマニピュレータのシミュレーション実験で実験を行った。
論文 参考訳(メタデータ) (2021-10-08T12:36:43Z) - Task Scoping: Generating Task-Specific Abstractions for Planning [19.411900372400183]
オープンスコープの世界モデルを用いた特定のタスクの計画は、計算的に難解である。
本稿では,初期条件,目標条件,タスクの遷移力学構造に関する知識を活用するタスクスコーピングを提案する。
タスクスコーピングは、関連要因やアクションを決して削除せず、その計算複雑性を特徴づけ、特に有用である計画上の問題を特徴づける。
論文 参考訳(メタデータ) (2020-10-17T21:19:25Z) - iCORPP: Interleaved Commonsense Reasoning and Probabilistic Planning on
Robots [46.13039152809055]
我々はiCORPPと呼ばれる新しいアルゴリズムを提案し、現在の世界状態を同時に推定し、世界ダイナミクスの推論を行い、タスク指向のコントローラを構築する。
結果は、競合するベースラインと比較して、スケーラビリティ、効率、適応性が大幅に改善されたことを示している。
論文 参考訳(メタデータ) (2020-04-18T17:46:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。