論文の概要: Long-Horizon Planning and Execution with Functional Object-Oriented
Networks
- arxiv url: http://arxiv.org/abs/2207.05800v5
- Date: Sat, 1 Apr 2023 19:06:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 01:04:35.913767
- Title: Long-Horizon Planning and Execution with Functional Object-Oriented
Networks
- Title(参考訳): 機能的オブジェクト指向ネットワークによる長期計画と実行
- Authors: David Paulius, Alejandro Agostini and Dongheui Lee
- Abstract要約: タスク計画と実行のためのFOONとしてオブジェクトレベルの知識を活用するというアイデアを紹介します。
提案手法では,FOONをPDDLに自動変換し,市販のプランナ,アクションコンテキスト,ロボットスキルを活用する。
我々はCoppeliaSimの長期タスクに対するアプローチを実証し、学習されたアクションコンテキストを、これまで見たことのないシナリオにどのように拡張できるかを示す。
- 参考スコア(独自算出の注目度): 79.94575713911189
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Following work on joint object-action representations, functional
object-oriented networks (FOON) were introduced as a knowledge graph
representation for robots. A FOON contains symbolic concepts useful to a
robot's understanding of tasks and its environment for object-level planning.
Prior to this work, little has been done to show how plans acquired from FOON
can be executed by a robot, as the concepts in a FOON are too abstract for
execution. We thereby introduce the idea of exploiting object-level knowledge
as a FOON for task planning and execution. Our approach automatically
transforms FOON into PDDL and leverages off-the-shelf planners, action
contexts, and robot skills in a hierarchical planning pipeline to generate
executable task plans. We demonstrate our entire approach on long-horizon tasks
in CoppeliaSim and show how learned action contexts can be extended to
never-before-seen scenarios.
- Abstract(参考訳): ロボットの知識グラフ表現として機能的オブジェクト指向ネットワーク(foon)が導入された。
FOONは、ロボットのタスクとその環境に対する理解に有用な象徴的な概念を含んでいる。
この研究に先立ち、FOONから取得した計画がロボットによってどのように実行されるかを示すために、FOONの概念は実行するには抽象的すぎるため、ほとんど行われていない。
そこで我々は,タスク計画と実行のためのFOONとして,オブジェクトレベルの知識を活用するアイデアを紹介した。
提案手法はフォオンをpddlに自動的に変換し,既成のプランナー,アクションコンテキスト,ロボットスキルを階層的計画パイプラインで活用し,実行可能なタスクプランを生成する。
我々はCoppeliaSimの長期タスクに対するアプローチ全体を実証し、学習されたアクションコンテキストが、これまで見たことのないシナリオにどのように拡張できるかを示す。
関連論文リスト
- Autonomous Behavior Planning For Humanoid Loco-manipulation Through Grounded Language Model [6.9268843428933025]
大規模言語モデル(LLM)は、意味情報の理解と処理のための強力な計画と推論能力を示している。
本稿では,ロボットが与えられたテキストによる指示の下で,自律的に動作や低レベル実行を計画できる新しい言語モデルベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-15T17:33:32Z) - Embodied Instruction Following in Unknown Environments [66.60163202450954]
未知環境における複雑なタスクに対するEIF(Embodied instruction following)法を提案する。
我々は,ハイレベルなタスクプランナと低レベルな探索コントローラを含む,階層的な具体化命令に従うフレームワークを構築した。
タスクプランナに対しては、タスク完了プロセスと既知の視覚的手がかりに基づいて、人間の目標達成のための実行可能なステップバイステッププランを生成する。
論文 参考訳(メタデータ) (2024-06-17T17:55:40Z) - Embodied Task Planning with Large Language Models [86.63533340293361]
本研究では,現場制約を考慮した地上計画のための具体的タスクにおけるTAsk Planing Agent (TaPA)を提案する。
推論の際には,オープンボキャブラリオブジェクト検出器を様々な場所で収集された多視点RGB画像に拡張することにより,シーン内の物体を検出する。
実験の結果,我々のTaPAフレームワークから生成されたプランは,LLaVAやGPT-3.5よりも大きなマージンで高い成功率が得られることがわかった。
論文 参考訳(メタデータ) (2023-07-04T17:58:25Z) - Learning to Reason over Scene Graphs: A Case Study of Finetuning GPT-2
into a Robot Language Model for Grounded Task Planning [45.51792981370957]
本研究では,ロボットタスク計画における小クラス大規模言語モデル(LLM)の適用性について,計画立案者が順次実行するためのサブゴール仕様にタスクを分解することを学ぶことによって検討する。
本手法は,シーングラフとして表現される領域上でのLLMの入力に基づいて,人間の要求を実行可能なロボット計画に変換する。
本研究は,LLMに格納された知識を長期タスクプランニングに効果的に活用できることを示唆し,ロボット工学におけるニューロシンボリックプランニング手法の今後の可能性を示すものである。
論文 参考訳(メタデータ) (2023-05-12T18:14:32Z) - Knowledge Retrieval using Functional Object-Oriented Network [0.0]
機能的オブジェクト指向ネットワーク(英: functional object-oriented network、FOON)は、グラフの形をとるシンボリックタスク計画の知識表現である。
グラフ検索手法により、FOONから操作動作シーケンスを生成し、所望の目的を達成する。
結果は、シミュレーション環境で望まれる目的を達成するために、FOONによって生成された動きシーケンスを用いて説明される。
論文 参考訳(メタデータ) (2022-11-06T06:02:29Z) - ProgPrompt: Generating Situated Robot Task Plans using Large Language
Models [68.57918965060787]
大規模言語モデル(LLM)は、タスク計画中の潜在的な次のアクションを評価するために使用することができる。
本稿では, プログラム型LCMプロンプト構造を用いて, 配置環境間での計画生成機能を実現する。
論文 参考訳(メタデータ) (2022-09-22T20:29:49Z) - A Road-map to Robot Task Execution with the Functional Object-Oriented
Network [77.93376696738409]
関数型オブジェクト指向ネットワーク(FOON)はロボットの知識グラフ表現である。
FOONは、二部グラフの形で、ロボットの環境やタスクに対する理解に関係のある象徴的あるいは高レベルな情報を含んでいる。
論文 参考訳(メタデータ) (2021-06-01T00:43:04Z) - A Long Horizon Planning Framework for Manipulating Rigid Pointcloud
Objects [25.428781562909606]
本稿では,剛体物体の操作に伴う長期計画問題の解決のための枠組みを提案する。
提案手法はオブジェクトサブゴールの空間における計画であり,ロボットとオブジェクトの相互作用のダイナミクスに関する推論からプランナーを解放する。
論文 参考訳(メタデータ) (2020-11-16T18:59:33Z) - Latent Space Roadmap for Visual Action Planning of Deformable and Rigid
Object Manipulation [74.88956115580388]
プランニングは、イメージを埋め込んだ低次元の潜在状態空間で行われる。
我々のフレームワークは2つの主要なコンポーネントで構成されており、画像のシーケンスとして視覚的な計画を生成するビジュアル・フォレスト・モジュール(VFM)と、それら間のアクションを予測するアクション・プロポーザル・ネットワーク(APN)である。
論文 参考訳(メタデータ) (2020-03-19T18:43:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。