論文の概要: V-MAO: Generative Modeling for Multi-Arm Manipulation of Articulated
Objects
- arxiv url: http://arxiv.org/abs/2111.03987v1
- Date: Sun, 7 Nov 2021 02:31:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-09 13:46:36.716928
- Title: V-MAO: Generative Modeling for Multi-Arm Manipulation of Articulated
Objects
- Title(参考訳): V-MAO:人工物体のマルチアーム操作のための生成モデル
- Authors: Xingyu Liu, Kris M. Kitani
- Abstract要約: 本稿では,音声による物体のマルチアーム操作を学習するためのフレームワークを提案する。
本フレームワークは,各ロボットアームの剛部上の接触点分布を学習する変動生成モデルを含む。
- 参考スコア(独自算出の注目度): 51.79035249464852
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Manipulating articulated objects requires multiple robot arms in general. It
is challenging to enable multiple robot arms to collaboratively complete
manipulation tasks on articulated objects. In this paper, we present
$\textbf{V-MAO}$, a framework for learning multi-arm manipulation of
articulated objects. Our framework includes a variational generative model that
learns contact point distribution over object rigid parts for each robot arm.
The training signal is obtained from interaction with the simulation
environment which is enabled by planning and a novel formulation of
object-centric control for articulated objects. We deploy our framework in a
customized MuJoCo simulation environment and demonstrate that our framework
achieves a high success rate on six different objects and two different robots.
We also show that generative modeling can effectively learn the contact point
distribution on articulated objects.
- Abstract(参考訳): 関節のある物体を操作するには、一般に複数のロボットアームが必要である。
複数のロボットアームが協調して関節オブジェクトの操作タスクを完了させることは困難である。
本稿では,音声オブジェクトのマルチアーム操作を学習するフレームワークである$\textbf{V-MAO}$を提案する。
本フレームワークは,各ロボットアームの剛部上の接触点分布を学習する変動生成モデルを含む。
訓練信号は、計画により実現されるシミュレーション環境と相互作用し、関節オブジェクトに対するオブジェクト中心制御の新規な定式化から得られる。
フレームワークをカスタマイズした MuJoCo シミュレーション環境にデプロイし、6つの異なるオブジェクトと2つの異なるロボットに対して高い成功率を達成することを示す。
また, 生成モデルにより, 物体の接触点分布を効果的に学習できることを示す。
関連論文リスト
- RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - GAMMA: Generalizable Articulation Modeling and Manipulation for
Articulated Objects [53.965581080954905]
本稿では,GAMMA(Generalizable Articulation Modeling and Manipulating for Articulated Objects)の新たな枠組みを提案する。
GAMMAは,異なるカテゴリーの多種多様な調音オブジェクトから,調音モデルと手取りポーズの相違を学習する。
その結果, GAMMA はSOTA の調音モデルおよび操作アルゴリズムを, 目に見えない, 横断的な調音オブジェクトで著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2023-09-28T08:57:14Z) - Dynamic Handover: Throw and Catch with Bimanual Hands [30.206469112964033]
この問題を解決するために、ロボットアームに2本の指を取り付けたシステムを設計する。
シミュレーションにおいてマルチエージェント強化学習を用いてシステムを訓練し、実ロボットにデプロイするためのSim2Real転送を実行する。
Sim2Realのギャップを克服するために、オブジェクトの軌道予測モデルを学ぶことを含む、複数の新しいアルゴリズム設計を提供する。
論文 参考訳(メタデータ) (2023-09-11T17:49:25Z) - VoxPoser: Composable 3D Value Maps for Robotic Manipulation with
Language Models [38.503337052122234]
大規模言語モデル(LLM)は、ロボット操作のために抽出できる豊富な行動可能な知識を持っていることが示されている。
我々は,オープンな命令セットとオープンなオブジェクトセットが与えられた様々な操作タスクに対して,ロボット軌道を合成することを目指している。
筆者らは,接触に富んだインタラクションを含むシーンのダイナミックスモデルを効率的に学習することで,提案フレームワークがオンライン体験の恩恵を享受できることを実証する。
論文 参考訳(メタデータ) (2023-07-12T07:40:48Z) - FOCUS: Object-Centric World Models for Robotics Manipulation [4.6956495676681484]
FOCUSは、オブジェクト中心の世界モデルを学ぶモデルベースのエージェントである。
オブジェクト中心の世界モデルにより、エージェントがより効率的にタスクを解くことができることを示す。
また、FOCUSが現実世界の環境でどのように採用されるかを示す。
論文 参考訳(メタデータ) (2023-07-05T16:49:06Z) - Pave the Way to Grasp Anything: Transferring Foundation Models for
Universal Pick-Place Robots [50.73735524550534]
そこで本稿では,最先端基礎モデルによって生成された言語基底セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
マスクから伝達される正確なセマンティクスとジオメトリを多視点ポリシーモデルに統合することにより、正確なオブジェクトのポーズを認識し、サンプル効率のよい学習を可能にする。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - DexTransfer: Real World Multi-fingered Dexterous Grasping with Minimal
Human Demonstrations [51.87067543670535]
本研究では,少数の人間によるデモンストレーションを行い,見えない物体のポーズを学習するロボット学習システムを提案する。
我々は,物体の点群を入力として捉え,物体を異なる初期ロボット状態から把握するための連続的な動作を予測する,厳密な把握ポリシーを訓練する。
我々のデータセットから学んだポリシーは、シミュレーションと現実世界の両方で見えないオブジェクトのポーズをうまく一般化することができる。
論文 参考訳(メタデータ) (2022-09-28T17:51:49Z) - RoboCraft: Learning to See, Simulate, and Shape Elasto-Plastic Objects
with Graph Networks [32.00371492516123]
弾塑性物体のモデリングと操作のためのモデルベース計画フレームワークを提案する。
我々のシステムであるRoboCraftは、グラフニューラルネットワーク(GNN)を用いて粒子ベースの力学モデルを学び、基礎となるシステムの構造を捉える。
実世界のロボットインタラクションデータの10分で、ロボットは制御信号を合成し、弾塑性の物体を様々な形状に変形させるダイナミックスモデルを学習できることを示す。
論文 参考訳(メタデータ) (2022-05-05T20:28:15Z) - Learning Multi-Arm Manipulation Through Collaborative Teleoperation [63.35924708783826]
模倣学習(il)はロボットに操作タスクを実行するための強力なパラダイムである。
多くの現実世界のタスクは、重い物体を持ち上げる、デスクを組み立てるなど、複数のアームを必要とする。
複数のリモートユーザが同時にロボットアームを遠隔操作できるマルチユーザデータ収集プラットフォームであるMulti-Arm RoboTurk(MART)を紹介した。
論文 参考訳(メタデータ) (2020-12-12T05:43:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。