論文の概要: Learning Transferable Push Manipulation Skills in Novel Contexts
- arxiv url: http://arxiv.org/abs/2007.14755v1
- Date: Wed, 29 Jul 2020 11:48:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 21:04:02.361775
- Title: Learning Transferable Push Manipulation Skills in Novel Contexts
- Title(参考訳): 新しい文脈における伝達可能なプッシュ操作スキルの学習
- Authors: Rhys Howard and Claudio Zito
- Abstract要約: 我々は、ロボットが新しい状況であっても物理的相互作用の結果を予測することができるプッシュインタラクションのためのパラメトリック内部モデルを学ぶ。
様々な条件下で合計24,000回のプッシュで2つのオブジェクトをトレーニングし、合計14,400回のプッシュ結果で6つのオブジェクトをテストします。
その結果,偏りや偏りのない予測器は,慎重に調整された物理シミュレータの結果と一致して,確実に予測を生成できることがわかった。
- 参考スコア(独自算出の注目度): 3.1981440103815717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper is concerned with learning transferable forward models for push
manipulation that can be applying to novel contexts and how to improve the
quality of prediction when critical information is available. We propose to
learn a parametric internal model for push interactions that, similar for
humans, enables a robot to predict the outcome of a physical interaction even
in novel contexts. Given a desired push action, humans are capable to identify
where to place their finger on a new object so to produce a predictable motion
of the object. We achieve the same behaviour by factorising the learning into
two parts. First, we learn a set of local contact models to represent the
geometrical relations between the robot pusher, the object, and the
environment. Then we learn a set of parametric local motion models to predict
how these contacts change throughout a push. The set of contact and motion
models represent our internal model. By adjusting the shapes of the
distributions over the physical parameters, we modify the internal model's
response. Uniform distributions yield to coarse estimates when no information
is available about the novel context (i.e. unbiased predictor). A more accurate
predictor can be learned for a specific environment/object pair (e.g. low
friction/high mass), i.e. biased predictor. The effectiveness of our approach
is shown in a simulated environment in which a Pioneer 3-DX robot needs to
predict a push outcome for a novel object, and we provide a proof of concept on
a real robot. We train on 2 objects (a cube and a cylinder) for a total of
24,000 pushes in various conditions, and test on 6 objects encompassing a
variety of shapes, sizes, and physical parameters for a total of 14,400
predicted push outcomes. Our results show that both biased and unbiased
predictors can reliably produce predictions in line with the outcomes of a
carefully tuned physics simulator.
- Abstract(参考訳): 本稿では、新しい文脈に適用可能なプッシュ操作のための転送可能な前方モデル学習と、重要な情報が得られる場合の予測品質の向上について述べる。
我々は,ロボットが新たな文脈においても物理的インタラクションの結果を予測することができるような,プッシュインタラクションのためのパラメトリックな内部モデルを学ぶことを提案する。
プッシュアクションが望ましい場合、人間は新しい物体に指を置く場所を特定することで、物体の予測可能な動きを生成することができる。
学習を2つの部分に分解することで、同じ行動を達成する。
まず,ロボットプッシャー,オブジェクト,環境間の幾何学的関係を表現するために,局所接触モデルの集合を学習する。
そして、パラメトリックな局所運動モデルを学び、これらの接触がプッシュを通してどのように変化するかを予測する。
接触モデルと運動モデルのセットは、私たちの内部モデルを表します。
物理パラメータ上の分布の形状を調整することで,内部モデルの応答を変化させる。
均一分布は、新しい文脈(すなわちバイアスのない予測器)に関する情報が得られない場合、粗い推定をもたらす。
より正確な予測器は、特定の環境/対象対(例えば、低摩擦/高質量)、すなわちバイアス予測器に対して学習することができる。
本手法の有効性は,先駆的な3dxロボットが新たな物体のプッシュ結果を予測するために必要となるシミュレーション環境において示され,実ロボットの概念実証を提供する。
様々な条件下で2つの物体(立方体とシリンダー)を合計24,000回の押圧で訓練し、様々な形状、大きさ、物理パラメータを含む6つの物体を合計14,400回の押圧結果で試験する。
その結果,偏りや偏りのない予測器は,慎重に調整された物理シミュレータの結果と一致して予測を確実に生成できることがわかった。
関連論文リスト
- RoboPack: Learning Tactile-Informed Dynamics Models for Dense Packing [38.97168020979433]
本稿では, 視覚と触覚を組み合わせ, 触覚インフォームド・ダイナミックスモデルを学習することでロボット操作を実現するアプローチを提案する。
提案するフレームワークであるRoboPackは、オブジェクト状態を推定するために、リカレントグラフニューラルネットワークを使用している。
我々は,非包括的操作と密包装作業に対するソフトバブル触覚センサを備えた実ロボットへのアプローチを実証する。
論文 参考訳(メタデータ) (2024-07-01T16:08:37Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Visual Affordance Prediction for Guiding Robot Exploration [56.17795036091848]
我々は,ロボット探索を導くための視覚能力の学習手法を開発した。
VQ-VAEの潜伏埋め込み空間における条件分布の学習にはTransformerベースのモデルを用いる。
本稿では,ロボット操作における視覚的目標条件付きポリシー学習において,目標サンプリング分布として機能することで探索を導くために,トレーニングされた余裕モデルをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2023-05-28T17:53:09Z) - Combining Vision and Tactile Sensation for Video Prediction [0.0]
本研究では,触覚フィードバックを映像予測モデルに組み込んだ物理的ロボットインタラクションの効果について検討する。
磁気ベースの触覚センサを用いて教師なし学習を行うロボットプッシュの2つの新しいデータセットを紹介した。
以上の結果から,触覚フィードバックを映像予測モデルに組み込むことにより,シーン予測精度が向上し,エージェントの身体的相互作用に対する認識が向上することが示唆された。
論文 参考訳(メタデータ) (2023-04-21T18:02:15Z) - Continual Predictive Learning from Videos [100.27176974654559]
本稿では,ビデオ予測の文脈において,新たな連続学習問題について検討する。
本稿では,連続予測学習(Continuousal predictive Learning, CPL)アプローチを提案する。
我々はRoboNetとKTHに基づく2つの新しいベンチマークを構築し、異なるタスクが異なる物理ロボット環境や人間の行動に対応するようにした。
論文 参考訳(メタデータ) (2022-04-12T08:32:26Z) - Factored World Models for Zero-Shot Generalization in Robotic
Manipulation [7.258229016768018]
我々は、オブジェクト指向世界モデルを用いてロボットピック・アンド・プレイス・タスクを一般化することを学ぶ。
グラフニューラルネットワークの残差スタックを使用して、ノードとエッジの両方のニューラルネットワークにおいて、複数のレベルのアクション情報を受信する。
モデルアンサンブルを用いて、最大12個のピック・アンド・プレイス・アクションを含むタスクを検索で計画できることが示される。
論文 参考訳(メタデータ) (2022-02-10T21:26:11Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z) - Few-Shot Visual Grounding for Natural Human-Robot Interaction [0.0]
本稿では,人間ユーザによって音声で示される,混み合ったシーンから対象物を分割するソフトウェアアーキテクチャを提案する。
システムのコアでは、視覚的な接地のためにマルチモーダルディープニューラルネットワークを使用します。
公開シーンデータセットから収集した実RGB-Dデータに対して,提案モデルの性能を評価する。
論文 参考訳(メタデータ) (2021-03-17T15:24:02Z) - Object and Relation Centric Representations for Push Effect Prediction [18.990827725752496]
プッシュは、プレグレープ操作からシーンアレンジメントまでのタスクに使用される、非包括的操作スキルである。
本稿では,プッシュ動作の効果予測とパラメータ推定のためのグラフニューラルネットワークに基づくフレームワークを提案する。
本フレームワークは,異なる種類の接合体と異なる質量を有する物体を介して接続された異なる形状の多部オブジェクトを含む実環境と模擬環境の両方で検証される。
論文 参考訳(メタデータ) (2021-02-03T15:09:12Z) - Predicting the Physical Dynamics of Unseen 3D Objects [65.49291702488436]
インパルス力を受ける平面上での3次元物体の動的挙動の予測に焦点をあてる。
我々の手法は、訓練中に目に見えない物体の形状や初期条件に一般化することができる。
我々のモデルは物理エンジンと実世界の両方のデータによるトレーニングをサポートすることができる。
論文 参考訳(メタデータ) (2020-01-16T06:27:59Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。