論文の概要: Relational Learning for Skill Preconditions
- arxiv url: http://arxiv.org/abs/2012.01693v1
- Date: Thu, 3 Dec 2020 04:13:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-24 02:55:08.885994
- Title: Relational Learning for Skill Preconditions
- Title(参考訳): 技能前提条件に対する関係学習
- Authors: Mohit Sharma, Oliver Kroemer
- Abstract要約: 制約のない環境での操作スキルの事前条件モデルを学習することに注力する。
我々の研究は、複数のオブジェクトを持つ複雑な操作タスクが、より複雑なペアワイドなオブジェクト関係に焦点を合わせることで、単純化できるという直感に動機付けられている。
提案手法は, 形状や大きさの異なる対象に対して, 3つのタスクの事前条件を予測する上で, 大幅な改善をもたらすことを示す。
- 参考スコア(独自算出の注目度): 15.427056235112152
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To determine if a skill can be executed in any given environment, a robot
needs to learn the preconditions for the skill. As robots begin to operate in
dynamic and unstructured environments, precondition models will need to
generalize to variable number of objects with different shapes and sizes. In
this work, we focus on learning precondition models for manipulation skills in
unconstrained environments. Our work is motivated by the intuition that many
complex manipulation tasks, with multiple objects, can be simplified by
focusing on less complex pairwise object relations. We propose an
object-relation model that learns continuous representations for these pairwise
object relations. Our object-relation model is trained completely in
simulation, and once learned, is used by a separate precondition model to
predict skill preconditions for real world tasks. We evaluate our precondition
model on $3$ different manipulation tasks: sweeping, cutting, and unstacking.
We show that our approach leads to significant improvements in predicting
preconditions for all 3 tasks, across objects of different shapes and sizes.
- Abstract(参考訳): 任意の環境でスキルが実行可能かどうかを判断するには、ロボットはそのスキルの前提条件を学習する必要がある。
ロボットが動的で非構造的な環境で動き始めると、プリコンディションモデルは様々な形状と大きさのオブジェクトに一般化する必要がある。
本研究では,制約のない環境における操作スキルの事前条件モデルの学習に焦点をあてる。
我々の研究は、複数のオブジェクトを持つ複雑な操作タスクが、より複雑なペアワイドなオブジェクト関係に焦点を合わせることで、単純化できるという直感に動機付けられている。
対関係関係の連続表現を学習するオブジェクト関係モデルを提案する。
我々のオブジェクト関係モデルはシミュレーションで完全に訓練され、一度学習されると、実世界のタスクのスキル前提条件を予測するために別の前提条件モデルによって使用される。
私たちは、スイープ、カット、アンスタックという3ドルの異なる操作タスクで前提条件モデルを評価します。
提案手法は,異なる形状や大きさのオブジェクトに対して,3つのタスクの事前条件を予測する上で,大幅な改善をもたらすことを示す。
関連論文リスト
- SceneScore: Learning a Cost Function for Object Arrangement [15.215659641228655]
「SceneScore」は、望ましい人間的なアレンジメントが低コストであるようなアレンジメントのコスト関数を学習する。
我々は,実例画像のみから,エネルギーモデルを用いてオフラインでトレーニングアレンジメントの分布を学習する。
実験により、学習したコスト関数は、欠落したオブジェクトのポーズを予測したり、セマンティックな特徴を使って新しいオブジェクトに一般化したり、推論時に制約を満たすために他のコスト関数で構成できることを示した。
論文 参考訳(メタデータ) (2023-11-14T20:55:40Z) - Learning Extrinsic Dexterity with Parameterized Manipulation Primitives [8.7221770019454]
我々は、オブジェクトのポーズを変えるために環境を利用する一連のアクションを学習する。
我々のアプローチは、オブジェクトとグリップと環境の間の相互作用を利用してオブジェクトの状態を制御することができる。
拘束されたテーブルトップワークスペースから様々な重量,形状,摩擦特性の箱状物体を選別する手法の評価を行った。
論文 参考訳(メタデータ) (2023-10-26T21:28:23Z) - Transferring Foundation Models for Generalizable Robotic Manipulation [82.12754319808197]
インターネット規模の基盤モデルによって生成された言語推論セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
提案手法は,オブジェクトのポーズを効果的かつ堅牢に知覚し,サンプル効率のよい一般化学習を可能にする。
デモは提出されたビデオで見ることができ、より包括的なデモはlink1またはlink2で見ることができます。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - Factored World Models for Zero-Shot Generalization in Robotic
Manipulation [7.258229016768018]
我々は、オブジェクト指向世界モデルを用いてロボットピック・アンド・プレイス・タスクを一般化することを学ぶ。
グラフニューラルネットワークの残差スタックを使用して、ノードとエッジの両方のニューラルネットワークにおいて、複数のレベルのアクション情報を受信する。
モデルアンサンブルを用いて、最大12個のピック・アンド・プレイス・アクションを含むタスクを検索で計画できることが示される。
論文 参考訳(メタデータ) (2022-02-10T21:26:11Z) - V-MAO: Generative Modeling for Multi-Arm Manipulation of Articulated
Objects [51.79035249464852]
本稿では,音声による物体のマルチアーム操作を学習するためのフレームワークを提案する。
本フレームワークは,各ロボットアームの剛部上の接触点分布を学習する変動生成モデルを含む。
論文 参考訳(メタデータ) (2021-11-07T02:31:09Z) - Model-Based Visual Planning with Self-Supervised Functional Distances [104.83979811803466]
モデルに基づく視覚的目標達成のための自己監視手法を提案する。
私たちのアプローチは、オフラインでラベルなしのデータを使って完全に学習します。
このアプローチは,モデルフリーとモデルベース先行手法の両方で大幅に性能が向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T23:59:09Z) - Goal-Aware Prediction: Learning to Model What Matters [105.43098326577434]
学習した前進力学モデルを使用する際の根本的な課題の1つは、学習したモデルの目的と下流のプランナーやポリシーの目標とのミスマッチである。
本稿では,タスク関連情報への直接的予測を提案し,そのモデルが現在のタスクを認識し,状態空間の関連量のみをモデル化することを奨励する。
提案手法は,目標条件付きシーンの関連部分を効果的にモデル化し,その結果,標準タスク非依存のダイナミックスモデルやモデルレス強化学習より優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-14T16:42:59Z) - CAZSL: Zero-Shot Regression for Pushing Models by Generalizing Through
Context [13.217582954907234]
本研究では、文脈認識モデルを構築することにより、物理世界のモデルを一般化できるディープラーニングエージェントを設計する問題について検討する。
本稿では、文脈対応ゼロショット学習(CAZSL)モデル、シームズネットワークを利用したアプローチ、埋め込み空間、文脈変数に基づく正規化を提案する。
提案した学習アルゴリズムを最近リリースされたOmnipushデータセット上でテストし、メタ学習機能のテストを可能にした。
論文 参考訳(メタデータ) (2020-03-26T01:21:58Z) - Learning Predictive Representations for Deformable Objects Using
Contrastive Estimation [83.16948429592621]
視覚表現モデルと動的モデルの両方を協調的に最適化する新しい学習フレームワークを提案する。
我々は,標準モデルに基づく学習手法をロープや布の操作スイートで大幅に改善した。
論文 参考訳(メタデータ) (2020-03-11T17:55:15Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。