論文の概要: Specification mining and automated task planning for autonomous robots
based on a graph-based spatial temporal logic
- arxiv url: http://arxiv.org/abs/2007.08451v1
- Date: Thu, 16 Jul 2020 16:40:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 00:00:41.282999
- Title: Specification mining and automated task planning for autonomous robots
based on a graph-based spatial temporal logic
- Title(参考訳): グラフに基づく時空間論理に基づく自律ロボットの仕様マイニングと自動タスク計画
- Authors: Zhiyu Liu, Meng Jiang, Hai Lin
- Abstract要約: 我々は、自律型ロボットがデモビデオから新しいスキルを学習し、これらの新しいスキルを使って非自明なハイレベルなタスクを達成できるようにすることを目指している。
知識表現にはグラフベースの時空間論理(GSTL)を用いて関連スキルの時空間情報と時空間情報をキャプチャする。
本稿では,GSTLに基づく自動タスク計画を提案し,提案者が順序付きアクションを生成するとともに,検証者が実行可能なタスク計画を生成する。
- 参考スコア(独自算出の注目度): 18.065866393109822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We aim to enable an autonomous robot to learn new skills from demo videos and
use these newly learned skills to accomplish non-trivial high-level tasks. The
goal of developing such autonomous robot involves knowledge representation,
specification mining, and automated task planning. For knowledge
representation, we use a graph-based spatial temporal logic (GSTL) to capture
spatial and temporal information of related skills demonstrated by demo videos.
We design a specification mining algorithm to generate a set of parametric GSTL
formulas from demo videos by inductively constructing spatial terms and
temporal formulas. The resulting parametric GSTL formulas from specification
mining serve as a domain theory, which is used in automated task planning for
autonomous robots. We propose an automatic task planning based on GSTL where a
proposer is used to generate ordered actions, and a verifier is used to
generate executable task plans. A table setting example is used throughout the
paper to illustrate the main ideas.
- Abstract(参考訳): 我々は、自律ロボットがデモビデオから新しいスキルを学習し、これらの新しいスキルを使って非自明なハイレベルなタスクを達成できるようにすることを目指している。
このような自律ロボットを開発する目標は、知識表現、仕様マイニング、タスク計画の自動化である。
知識表現には、グラフベースの時空間論理(GSTL)を用いて、デモビデオで示される関連スキルの空間的および時間的情報をキャプチャする。
我々は,空間項と時間式を帰納的に構築することで,デモビデオからパラメトリックGSTL式を生成するための仕様マイニングアルゴリズムを設計する。
仕様マイニングから得られるパラメトリックGSTL式は、自律ロボットの自動タスク計画に使用されるドメイン理論として機能する。
本稿では,GSTLに基づく自動タスク計画を提案し,提案者が順序付きアクションを生成するとともに,検証者が実行可能なタスク計画を生成する。
テーブル設定の例は、主要なアイデアを説明するために、論文全体に使われます。
関連論文リスト
- Automated Process Planning Based on a Semantic Capability Model and SMT [50.76251195257306]
製造システムと自律ロボットの研究において、機械で解釈可能なシステム機能の仕様に「能力」という用語が用いられる。
セマンティック能力モデルから始めて、AI計画問題を自動的に生成するアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-14T10:37:34Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - Decomposition-based Hierarchical Task Allocation and Planning for Multi-Robots under Hierarchical Temporal Logic Specifications [9.150196865878234]
時間論理仕様を用いたロボット計画のための分解に基づく階層的枠組みを定式化する。
混合線形プログラムは、様々なロボットにサブタスクを割り当てるために使用される。
本手法はナビゲーションと操作の領域に実験的に適用された。
論文 参考訳(メタデータ) (2023-08-20T23:53:13Z) - Learning to Reason over Scene Graphs: A Case Study of Finetuning GPT-2
into a Robot Language Model for Grounded Task Planning [45.51792981370957]
本研究では,ロボットタスク計画における小クラス大規模言語モデル(LLM)の適用性について,計画立案者が順次実行するためのサブゴール仕様にタスクを分解することを学ぶことによって検討する。
本手法は,シーングラフとして表現される領域上でのLLMの入力に基づいて,人間の要求を実行可能なロボット計画に変換する。
本研究は,LLMに格納された知識を長期タスクプランニングに効果的に活用できることを示唆し,ロボット工学におけるニューロシンボリックプランニング手法の今後の可能性を示すものである。
論文 参考訳(メタデータ) (2023-05-12T18:14:32Z) - ProgPrompt: Generating Situated Robot Task Plans using Large Language
Models [68.57918965060787]
大規模言語モデル(LLM)は、タスク計画中の潜在的な次のアクションを評価するために使用することができる。
本稿では, プログラム型LCMプロンプト構造を用いて, 配置環境間での計画生成機能を実現する。
論文 参考訳(メタデータ) (2022-09-22T20:29:49Z) - Sequential Manipulation Planning on Scene Graph [90.28117916077073]
我々は,効率的な逐次タスク計画のための3次元シーングラフ表現であるコンタクトグラフ+(cg+)を考案する。
ゴール設定は、自然にコンタクトグラフに指定され、最適化法を用いて遺伝的アルゴリズムによって作成することができる。
次に、初期接触グラフと目標設定との間のグラフ編集距離(GED)を計算してタスクプランを簡潔化し、ロボット動作に対応するグラフ編集操作を生成する。
論文 参考訳(メタデータ) (2022-07-10T02:01:33Z) - Can Foundation Models Perform Zero-Shot Task Specification For Robot
Manipulation? [54.442692221567796]
タスク仕様は、熟練していないエンドユーザの関与とパーソナライズされたロボットの採用に不可欠である。
タスク仕様に対する広く研究されているアプローチは、目標を通じて、コンパクトな状態ベクトルまたは同じロボットシーンのゴールイメージを使用することである。
そこで本研究では,人間の指定や使用が容易な目標仕様の代替的,より汎用的な形式について検討する。
論文 参考訳(メタデータ) (2022-04-23T19:39:49Z) - OG-SGG: Ontology-Guided Scene Graph Generation. A Case Study in Transfer
Learning for Telepresence Robotics [124.08684545010664]
画像からのシーングラフ生成は、ロボット工学のようなアプリケーションに非常に関心を持つタスクである。
オントロジー誘導シーングラフ生成(OG-SGG)と呼ばれるフレームワークの初期近似を提案する。
論文 参考訳(メタデータ) (2022-02-21T13:23:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。