論文の概要: A Road-map to Robot Task Execution with the Functional Object-Oriented
Network
- arxiv url: http://arxiv.org/abs/2106.00158v1
- Date: Tue, 1 Jun 2021 00:43:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-02 14:10:47.365472
- Title: A Road-map to Robot Task Execution with the Functional Object-Oriented
Network
- Title(参考訳): 機能的オブジェクト指向ネットワークを用いたロボットタスク実行へのロードマップ
- Authors: David Paulius, Alejandro Agostini, Yu Sun and Dongheui Lee
- Abstract要約: 関数型オブジェクト指向ネットワーク(FOON)はロボットの知識グラフ表現である。
FOONは、二部グラフの形で、ロボットの環境やタスクに対する理解に関係のある象徴的あるいは高レベルな情報を含んでいる。
- 参考スコア(独自算出の注目度): 77.93376696738409
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Following work on joint object-action representations, the functional
object-oriented network (FOON) was introduced as a knowledge graph
representation for robots. Taking the form of a bipartite graph, a FOON
contains symbolic or high-level information that would be pertinent to a
robot's understanding of its environment and tasks in a way that mirrors human
understanding of actions. In this work, we outline a road-map for future
development of FOON and its application in robotic systems for task planning as
well as knowledge acquisition from demonstration. We propose preliminary ideas
to show how a FOON can be created in a real-world scenario with a robot and
human teacher in a way that can jointly augment existing knowledge in a FOON
and teach a robot the skills it needs to replicate the demonstrated actions and
solve a given manipulation problem.
- Abstract(参考訳): ロボットのための知識グラフ表現として関数型オブジェクト指向ネットワーク(foon)が導入された。
FOONは、二部グラフの形で、ロボットの環境やタスクに対する理解に関係のある象徴的あるいは高レベルな情報を、人間の行動理解を反映した形で含んでいる。
本稿では,foonの今後の開発に向けたロードマップと,そのタスク計画のためのロボットシステムへの応用,および実演からの知識獲得について概説する。
本研究では,ロボットと人間の教師が実世界のシナリオにおいて,FOONの既存の知識を協調的に強化し,実証された動作を再現し,与えられた操作問題を解くために必要なスキルをロボットに教えるための,予備的なアイデアを提案する。
関連論文リスト
- Task Tree Retrieval For Robotic Cooking [0.0]
本論文は,与えられた目標ノードに対するタスクツリー計画を生成する,異なるアルゴリズムの開発に基づく。
料理の知識表現はFOONと呼ばれ、異なるオブジェクトとそれらの間のそれぞれをモーションノードに格納する。
論文 参考訳(メタデータ) (2023-11-27T20:41:21Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Knowledge Retrieval using Functional Object-Oriented Network [0.0]
機能的オブジェクト指向ネットワーク(英: functional object-oriented network、FOON)は、グラフの形をとるシンボリックタスク計画の知識表現である。
グラフ検索手法により、FOONから操作動作シーケンスを生成し、所望の目的を達成する。
結果は、シミュレーション環境で望まれる目的を達成するために、FOONによって生成された動きシーケンスを用いて説明される。
論文 参考訳(メタデータ) (2022-11-06T06:02:29Z) - Long-Horizon Planning and Execution with Functional Object-Oriented
Networks [79.94575713911189]
タスク計画と実行のためのFOONとしてオブジェクトレベルの知識を活用するというアイデアを紹介します。
提案手法では,FOONをPDDLに自動変換し,市販のプランナ,アクションコンテキスト,ロボットスキルを活用する。
我々はCoppeliaSimの長期タスクに対するアプローチを実証し、学習されたアクションコンテキストを、これまで見たことのないシナリオにどのように拡張できるかを示す。
論文 参考訳(メタデータ) (2022-07-12T19:29:35Z) - Learning Generalizable Robotic Reward Functions from "In-The-Wild" Human
Videos [59.58105314783289]
ドメインに依存しないビデオ識別器(DVD)は、2つのビデオが同じタスクを実行しているかどうかを判断するために識別器を訓練することによりマルチタスク報酬関数を学習する。
DVDは、人間のビデオの広いデータセットで少量のロボットデータから学習することで、一般化することができる。
DVDと視覚モデル予測制御を組み合わせることで、実際のWidowX200ロボットのロボット操作タスクを単一の人間のデモから未知の環境で解決できます。
論文 参考訳(メタデータ) (2021-03-31T05:25:05Z) - Axiom Learning and Belief Tracing for Transparent Decision Making in
Robotics [8.566457170664926]
ロボットがその決定や信念の説明を提供する能力は、人間との効果的なコラボレーションを促進する。
我々のアーキテクチャは、非単調な論理的推論、ディープラーニング、決定木帰納の相補的な強みを兼ね備えています。
推論と学習の間、このアーキテクチャにより、ロボットはその決定、信念、仮説的行動の結果について、オンデマンドでリレーショナルな記述を提供することができる。
論文 参考訳(メタデータ) (2020-10-20T22:09:17Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z) - Understanding Contexts Inside Robot and Human Manipulation Tasks through
a Vision-Language Model and Ontology System in a Video Stream [4.450615100675747]
本稿では,ロボットと人間の操作の双方に対して,厳密な制約付き知識領域の下で視覚データセットを提案する。
本稿では,視覚的注意とコモンセンス知識に満ちた知識グラフを組み合わせて生成する手法を提案する。
提案手法により,ロボットはリアルタイム映像を視聴することで,人間の意図的な動作を模倣することができる。
論文 参考訳(メタデータ) (2020-03-02T19:48:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。