論文の概要: Towards Robust One-shot Task Execution using Knowledge Graph Embeddings
- arxiv url: http://arxiv.org/abs/2105.04484v1
- Date: Mon, 10 May 2021 16:21:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 14:40:58.405617
- Title: Towards Robust One-shot Task Execution using Knowledge Graph Embeddings
- Title(参考訳): 知識グラフ埋め込みを用いた一発タスク実行のロバスト化
- Authors: Angel Daruna, Lakshmi Nair, Weiyu Liu, Sonia Chernova
- Abstract要約: タスクプランの複数のデモを必要とすることは、ロボットのエンドユーザに負担をもたらす。
ロボットがタスク計画の1つのデモンストレーションまたはプロトタイプの例を新しい実行環境に一般化しなければならないワンショットタスク実行の問題に対処する。
提案手法はタスク計画とドメイン知識を統合し、タスク計画の構成要素を新しい実行環境に推論する。
- 参考スコア(独自算出の注目度): 19.57941107338933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Requiring multiple demonstrations of a task plan presents a burden to
end-users of robots. However, robustly executing tasks plans from a single
end-user demonstration is an ongoing challenge in robotics. We address the
problem of one-shot task execution, in which a robot must generalize a single
demonstration or prototypical example of a task plan to a new execution
environment. Our approach integrates task plans with domain knowledge to infer
task plan constituents for new execution environments. Our experimental
evaluations show that our knowledge representation makes more relevant
generalizations that result in significantly higher success rates over tested
baselines. We validated the approach on a physical platform, which resulted in
the successful generalization of initial task plans to 38 of 50 execution
environments with errors resulting from autonomous robot operation included.
- Abstract(参考訳): タスクプランの複数のデモを必要とすることは、ロボットのエンドユーザに負担をもたらす。
しかし、単一のエンドユーザーによるデモからタスク計画をしっかりと実行することは、ロボティクスにおける継続的な課題である。
ロボットがタスク計画の1つのデモンストレーションやプロトタイプの例を新しい実行環境に一般化しなければならない、ワンショットタスク実行の問題に対処する。
提案手法はタスク計画とドメイン知識を統合し,新しい実行環境のためのタスク計画構成を推論する。
実験評価の結果,我々の知識表現は,テストベースラインよりも有意に高い成功率をもたらす,より関連性の高い一般化を行っていることがわかった。
このアプローチを物理的プラットフォーム上で検証し,自律ロボット操作によるエラーを含む50の実行環境のうち38に初期タスクプランを一般化することに成功した。
関連論文リスト
- COHERENT: Collaboration of Heterogeneous Multi-Robot System with Large Language Models [49.24666980374751]
COHERENTは、異種マルチロボットシステムの協調のための新しいLCMベースのタスク計画フレームワークである。
提案-実行-フィードバック-調整機構は,個々のロボットに対して動作を分解・割り当てするように設計されている。
実験の結果,我々の研究は,成功率と実行効率の面で,従来の手法をはるかに上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2024-09-23T15:53:41Z) - Autonomous Behavior Planning For Humanoid Loco-manipulation Through Grounded Language Model [6.9268843428933025]
大規模言語モデル(LLM)は、意味情報の理解と処理のための強力な計画と推論能力を示している。
本稿では,ロボットが与えられたテキストによる指示の下で,自律的に動作や低レベル実行を計画できる新しい言語モデルベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-15T17:33:32Z) - Embodied Instruction Following in Unknown Environments [66.60163202450954]
未知環境における複雑なタスクに対するEIF(Embodied instruction following)法を提案する。
我々は,ハイレベルなタスクプランナと低レベルな探索コントローラを含む,階層的な具体化命令に従うフレームワークを構築した。
タスクプランナに対しては、タスク完了プロセスと既知の視覚的手がかりに基づいて、人間の目標達成のための実行可能なステップバイステッププランを生成する。
論文 参考訳(メタデータ) (2024-06-17T17:55:40Z) - Task and Motion Planning for Execution in the Real [24.01204729304763]
この作業は、作業を含むタスクと動作の計画を生成するが、計画時には完全には理解できない。
実行は、タスク目標に到達するまでオフラインで計画された動きとオンライン行動を組み合わせる。
提案したフレームワークを評価するために,40の実ロボット試験とモチベーション実証を行った。
その結果、実行時間が短縮され、アクションの数が少なくなり、さまざまなギャップが生じる問題の成功率が向上した。
論文 参考訳(メタデータ) (2024-06-05T22:30:40Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - Continual Robot Learning using Self-Supervised Task Inference [19.635428830237842]
新しいタスクを継続的に学習するための自己教師型タスク推論手法を提案する。
我々は、行動マッチング型自己教師型学習目標を用いて、新しいタスク推論ネットワーク(TINet)を訓練する。
マルチタスクポリシはTINet上に構築され、タスクよりもパフォーマンスを最適化するために強化学習でトレーニングされている。
論文 参考訳(メタデータ) (2023-09-10T09:32:35Z) - Multimodal Contextualized Plan Prediction for Embodied Task Completion [9.659463406886301]
タスクプランニングは従来のロボットシステムにおいて重要なコンポーネントであり、ロボットがより複雑なタスクを実行するためのきめ細かいスキルを組み立てることができる。
シミュレーション実施エージェントにおけるタスク完了のための自然言語を実行可能なアクションに翻訳する最近の作業構築システムは,低レベルのアクションシーケンスを直接予測することに焦点を当てている。
我々は,そのような具体化されたタスク完了データセット - TEACh に対して,より高いレベルの計画表現を予測することに集中する。
論文 参考訳(メタデータ) (2023-05-10T22:29:12Z) - ProgPrompt: Generating Situated Robot Task Plans using Large Language
Models [68.57918965060787]
大規模言語モデル(LLM)は、タスク計画中の潜在的な次のアクションを評価するために使用することができる。
本稿では, プログラム型LCMプロンプト構造を用いて, 配置環境間での計画生成機能を実現する。
論文 参考訳(メタデータ) (2022-09-22T20:29:49Z) - BC-Z: Zero-Shot Task Generalization with Robotic Imitation Learning [108.41464483878683]
本稿では,視覚に基づくロボット操作システムにおいて,新しいタスクを一般化することの課題について検討する。
実演と介入の両方から学ぶことができるインタラクティブで柔軟な模倣学習システムを開発した。
実際のロボットにおけるデータ収集を100以上のタスクにスケールすると、このシステムは平均的な成功率44%で24の目に見えない操作タスクを実行できる。
論文 参考訳(メタデータ) (2022-02-04T07:30:48Z) - Scalable Multi-Task Imitation Learning with Autonomous Improvement [159.9406205002599]
我々は、自律的なデータ収集を通じて継続的に改善できる模倣学習システムを構築している。
我々は、ロボット自身の試行を、実際に試みたタスク以外のタスクのデモとして活用する。
従来の模倣学習のアプローチとは対照的に,本手法は,継続的改善のための疎い監視によるデータ収集を自律的に行うことができる。
論文 参考訳(メタデータ) (2020-02-25T18:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。