論文の概要: NOD-TAMP: Multi-Step Manipulation Planning with Neural Object
Descriptors
- arxiv url: http://arxiv.org/abs/2311.01530v1
- Date: Thu, 2 Nov 2023 18:26:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-06 16:15:39.551779
- Title: NOD-TAMP: Multi-Step Manipulation Planning with Neural Object
Descriptors
- Title(参考訳): NOD-TAMP:ニューラルオブジェクト記述子を用いたマルチステップ操作計画
- Authors: Shuo Cheng, Caelan Garrett, Ajay Mandlekar, Danfei Xu
- Abstract要約: 家庭や工場における複雑な操作作業のためのインテリジェントロボットの開発は依然として困難である。
提案するフレームワークであるNOD-TAMPは、少数の人間のデモンストレーションから短い操作軌跡を抽出する。
NOD特徴を用いてこれらの軌道に適応し、広い長距離タスクを解くために構成する。
- 参考スコア(独自算出の注目度): 17.67523831096846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Developing intelligent robots for complex manipulation tasks in household and
factory settings remains challenging due to long-horizon tasks, contact-rich
manipulation, and the need to generalize across a wide variety of object shapes
and scene layouts. While Task and Motion Planning (TAMP) offers a promising
solution, its assumptions such as kinodynamic models limit applicability in
novel contexts. Neural object descriptors (NODs) have shown promise in object
and scene generalization but face limitations in addressing broader tasks. Our
proposed TAMP-based framework, NOD-TAMP, extracts short manipulation
trajectories from a handful of human demonstrations, adapts these trajectories
using NOD features, and composes them to solve broad long-horizon tasks.
Validated in a simulation environment, NOD-TAMP effectively tackles varied
challenges and outperforms existing methods, establishing a cohesive framework
for manipulation planning. For videos and other supplemental material, see the
project website: https://sites.google.com/view/nod-tamp/.
- Abstract(参考訳): 家庭や工場での複雑な操作タスクのためのインテリジェントロボットの開発は、長いホリゾン作業、接触の多い操作、さまざまなオブジェクト形状やシーンレイアウトを一般化する必要性などにより、依然として困難である。
task and motion planning(tamp)は有望なソリューションを提供するが、kinodynamicモデルのような仮定は、新しいコンテキストにおける適用可能性を制限する。
neural object descriptor(nod)は、オブジェクトとシーンの一般化においてpromiseを示しているが、より広いタスクに対処する上での制限に直面している。
提案するTAMPベースのフレームワークであるNOD-TAMPは、少数の人間のデモから短い操作軌跡を抽出し、NOD特徴を用いてこれらの軌跡を適応し、より広い長期タスクを解くために構成する。
シミュレーション環境で検証されたNOD-TAMPは、様々な課題に効果的に取り組み、既存の手法より優れている。
ビデオやその他の補足資料については、プロジェクトのWebサイトを参照してください。
関連論文リスト
- DoraemonGPT: Toward Understanding Dynamic Scenes with Large Language
Models [78.43468551763303]
我々は,動的ビデオタスクを扱うLLMによって駆動される包括的かつ概念的にエレガントなシステムであるドラモンGPTを考案した。
質問/タスクのあるビデオが与えられた場合、DoraemonGPTは入力されたビデオをタスク関連の属性を格納するシンボリックメモリに変換することから始める。
3つのベンチマークでDoraemonGPTの有効性を広く評価した。
論文 参考訳(メタデータ) (2024-01-16T14:33:09Z) - Unified Task and Motion Planning using Object-centric Abstractions of
Motion Constraints [56.283944756315066]
本稿では,タスクとモーションプランニングを一つの検索に統一するTAMP手法を提案する。
我々のアプローチは、オフザシェルフAIサーチの計算効率を活用して、物理的に実現可能な計画が得られるような、オブジェクト中心の動作制約の抽象化に基づいている。
論文 参考訳(メタデータ) (2023-12-29T14:00:20Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - Generalizable Long-Horizon Manipulations with Large Language Models [91.740084601715]
本研究は,Large Language Models (LLMs) の機能を活用して,汎用可能な長距離操作のための原始的なタスク条件を生成するフレームワークを導入する。
我々は,Pybulletに基づくロボット操作タスクスイートを作成し,長期作業評価を行う。
論文 参考訳(メタデータ) (2023-10-03T17:59:46Z) - Embodied Task Planning with Large Language Models [86.63533340293361]
本研究では,現場制約を考慮した地上計画のための具体的タスクにおけるTAsk Planing Agent (TaPA)を提案する。
推論の際には,オープンボキャブラリオブジェクト検出器を様々な場所で収集された多視点RGB画像に拡張することにより,シーン内の物体を検出する。
実験の結果,我々のTaPAフレームワークから生成されたプランは,LLaVAやGPT-3.5よりも大きなマージンで高い成功率が得られることがわかった。
論文 参考訳(メタデータ) (2023-07-04T17:58:25Z) - DiMSam: Diffusion Models as Samplers for Task and Motion Planning under
Partial Observability [50.38132214102161]
タスク・アンド・モーション・プランニング(TAMP)アプローチは、長距離自律ロボット操作の計画に有効である。
本稿では,これらの制約を深層生成モデルを用いて克服することを提案する。
古典的TAMP, 生成学習, 潜伏埋め込みの組み合わせが, 長期的制約に基づく推論にどのように役立つかを示す。
論文 参考訳(メタデータ) (2023-06-22T20:40:24Z) - ManipulaTHOR: A Framework for Visual Object Manipulation [27.17908758246059]
物理対応で視覚的に豊かなAI2-THORフレームワーク上に構築されたオブジェクト操作のためのフレームワークを提案する。
このタスクは、一般的なポイントナビゲーションタスクをオブジェクト操作に拡張し、3D障害物回避を含む新しい課題を提供する。
論文 参考訳(メタデータ) (2021-04-22T17:49:04Z) - A Long Horizon Planning Framework for Manipulating Rigid Pointcloud
Objects [25.428781562909606]
本稿では,剛体物体の操作に伴う長期計画問題の解決のための枠組みを提案する。
提案手法はオブジェクトサブゴールの空間における計画であり,ロボットとオブジェクトの相互作用のダイナミクスに関する推論からプランナーを解放する。
論文 参考訳(メタデータ) (2020-11-16T18:59:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。