論文の概要: Factored World Models for Zero-Shot Generalization in Robotic
Manipulation
- arxiv url: http://arxiv.org/abs/2202.05333v1
- Date: Thu, 10 Feb 2022 21:26:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-14 16:06:00.649358
- Title: Factored World Models for Zero-Shot Generalization in Robotic
Manipulation
- Title(参考訳): ロボット操作におけるゼロショット一般化のための因子世界モデル
- Authors: Ondrej Biza, Thomas Kipf, David Klee, Robert Platt, Jan-Willem van de
Meent and Lawson L. S. Wong
- Abstract要約: 我々は、オブジェクト指向世界モデルを用いてロボットピック・アンド・プレイス・タスクを一般化することを学ぶ。
グラフニューラルネットワークの残差スタックを使用して、ノードとエッジの両方のニューラルネットワークにおいて、複数のレベルのアクション情報を受信する。
モデルアンサンブルを用いて、最大12個のピック・アンド・プレイス・アクションを含むタスクを検索で計画できることが示される。
- 参考スコア(独自算出の注目度): 7.258229016768018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: World models for environments with many objects face a combinatorial
explosion of states: as the number of objects increases, the number of possible
arrangements grows exponentially. In this paper, we learn to generalize over
robotic pick-and-place tasks using object-factored world models, which combat
the combinatorial explosion by ensuring that predictions are equivariant to
permutations of objects. Previous object-factored models were limited either by
their inability to model actions, or by their inability to plan for complex
manipulation tasks. We build on recent contrastive methods for training
object-factored world models, which we extend to model continuous robot actions
and to accurately predict the physics of robotic pick-and-place. To do so, we
use a residual stack of graph neural networks that receive action information
at multiple levels in both their node and edge neural networks. Crucially, our
learned model can make predictions about tasks not represented in the training
data. That is, we demonstrate successful zero-shot generalization to novel
tasks, with only a minor decrease in model performance. Moreover, we show that
an ensemble of our models can be used to plan for tasks involving up to 12 pick
and place actions using heuristic search. We also demonstrate transfer to a
physical robot.
- Abstract(参考訳): 多くの物体を持つ環境のワールドモデルでは、オブジェクトの数が増加するにつれて、考えられるアレンジの数は指数関数的に増加する。
本稿では,オブジェクトの置換に同値であることを保証し,組み合わせの爆発と戦う,オブジェクト指向世界モデルを用いたロボットピック・アンド・プレイス・タスクの一般化を学習する。
従来のオブジェクト指向モデルは、アクションをモデル化できないか、複雑な操作タスクを計画できないかによって制限されていた。
本研究では,ロボットの動作を連続的にモデル化し,ロボットのピック・アンド・プレイスの物理を正確に予測する。
そのため、ノードとエッジの両方のニューラルネットワークにおいて、アクション情報を複数のレベルで受信するグラフニューラルネットワークの残差スタックを使用する。
重要なのは、学習したモデルがトレーニングデータに表されないタスクを予測できることです。
すなわち,新規タスクに対するゼロショット一般化を成功させたが,モデル性能はわずかに低下しただけだった。
さらに,最大12個のピック・アンド・プレイス・アクションを含むタスクをヒューリスティック・サーチを用いて計画するために,我々のモデルのアンサンブルを使用できることを示す。
また,ロボットへの移動を実演する。
関連論文リスト
- Towards Generalizable Zero-Shot Manipulation via Translating Human
Interaction Plans [58.27029676638521]
我々は、人間の受動的ビデオが、そのようなジェネラリストロボットを学習するための豊富なデータ源であることを示す。
我々は、シーンの現在の画像とゴール画像から将来の手やオブジェクトの設定を予測する人間の計画予測器を学習する。
学習システムは、40個のオブジェクトに一般化する16以上の操作スキルを実現できることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:54:12Z) - Transferring Foundation Models for Generalizable Robotic Manipulation [82.12754319808197]
インターネット規模の基盤モデルによって生成された言語推論セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
提案手法は,オブジェクトのポーズを効果的かつ堅牢に知覚し,サンプル効率のよい一般化学習を可能にする。
デモは提出されたビデオで見ることができ、より包括的なデモはlink1またはlink2で見ることができます。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - RT-1: Robotics Transformer for Real-World Control at Scale [98.09428483862165]
我々は,有望なスケーラブルなモデル特性を示す,ロボティクストランスフォーマーと呼ばれるモデルクラスを提示する。
実世界の課題を遂行する実ロボットの大規模データ収集に基づいて,様々なモデルクラスと,データサイズ,モデルサイズ,データの多様性の関数として一般化する能力について検証した。
論文 参考訳(メタデータ) (2022-12-13T18:55:15Z) - PACT: Perception-Action Causal Transformer for Autoregressive Robotics
Pre-Training [25.50131893785007]
本研究は,ロボットにおける複数のタスクの出発点として機能する汎用表現を事前学習するためのパラダイムを導入する。
本稿では,ロボットデータから直接表現を自己管理的に構築することを目的として,PACT(Perception-Action Causal Transformer)を提案する。
より大規模な事前学習モデル上に小さなタスク特化ネットワークを微調整すると、同時に1つのモデルをスクラッチからトレーニングするのに比べ、性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-09-22T16:20:17Z) - RoboCraft: Learning to See, Simulate, and Shape Elasto-Plastic Objects
with Graph Networks [32.00371492516123]
弾塑性物体のモデリングと操作のためのモデルベース計画フレームワークを提案する。
我々のシステムであるRoboCraftは、グラフニューラルネットワーク(GNN)を用いて粒子ベースの力学モデルを学び、基礎となるシステムの構造を捉える。
実世界のロボットインタラクションデータの10分で、ロボットは制御信号を合成し、弾塑性の物体を様々な形状に変形させるダイナミックスモデルを学習できることを示す。
論文 参考訳(メタデータ) (2022-05-05T20:28:15Z) - Model-Based Visual Planning with Self-Supervised Functional Distances [104.83979811803466]
モデルに基づく視覚的目標達成のための自己監視手法を提案する。
私たちのアプローチは、オフラインでラベルなしのデータを使って完全に学習します。
このアプローチは,モデルフリーとモデルベース先行手法の両方で大幅に性能が向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T23:59:09Z) - Goal-Aware Prediction: Learning to Model What Matters [105.43098326577434]
学習した前進力学モデルを使用する際の根本的な課題の1つは、学習したモデルの目的と下流のプランナーやポリシーの目標とのミスマッチである。
本稿では,タスク関連情報への直接的予測を提案し,そのモデルが現在のタスクを認識し,状態空間の関連量のみをモデル化することを奨励する。
提案手法は,目標条件付きシーンの関連部分を効果的にモデル化し,その結果,標準タスク非依存のダイナミックスモデルやモデルレス強化学習より優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-14T16:42:59Z) - CAZSL: Zero-Shot Regression for Pushing Models by Generalizing Through
Context [13.217582954907234]
本研究では、文脈認識モデルを構築することにより、物理世界のモデルを一般化できるディープラーニングエージェントを設計する問題について検討する。
本稿では、文脈対応ゼロショット学習(CAZSL)モデル、シームズネットワークを利用したアプローチ、埋め込み空間、文脈変数に基づく正規化を提案する。
提案した学習アルゴリズムを最近リリースされたOmnipushデータセット上でテストし、メタ学習機能のテストを可能にした。
論文 参考訳(メタデータ) (2020-03-26T01:21:58Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。