論文の概要: Dynamic Handover: Throw and Catch with Bimanual Hands
- arxiv url: http://arxiv.org/abs/2309.05655v1
- Date: Mon, 11 Sep 2023 17:49:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 11:29:29.774463
- Title: Dynamic Handover: Throw and Catch with Bimanual Hands
- Title(参考訳): ダイナミックハンドオーバ: 両手で投げてキャッチする
- Authors: Binghao Huang, Yuanpei Chen, Tianyu Wang, Yuzhe Qin, Yaodong Yang,
Nikolay Atanasov, Xiaolong Wang
- Abstract要約: この問題を解決するために、ロボットアームに2本の指を取り付けたシステムを設計する。
シミュレーションにおいてマルチエージェント強化学習を用いてシステムを訓練し、実ロボットにデプロイするためのSim2Real転送を実行する。
Sim2Realのギャップを克服するために、オブジェクトの軌道予測モデルを学ぶことを含む、複数の新しいアルゴリズム設計を提供する。
- 参考スコア(独自算出の注目度): 30.206469112964033
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans throw and catch objects all the time. However, such a seemingly common
skill introduces a lot of challenges for robots to achieve: The robots need to
operate such dynamic actions at high-speed, collaborate precisely, and interact
with diverse objects. In this paper, we design a system with two multi-finger
hands attached to robot arms to solve this problem. We train our system using
Multi-Agent Reinforcement Learning in simulation and perform Sim2Real transfer
to deploy on the real robots. To overcome the Sim2Real gap, we provide multiple
novel algorithm designs including learning a trajectory prediction model for
the object. Such a model can help the robot catcher has a real-time estimation
of where the object will be heading, and then react accordingly. We conduct our
experiments with multiple objects in the real-world system, and show
significant improvements over multiple baselines. Our project page is available
at \url{https://binghao-huang.github.io/dynamic_handover/}.
- Abstract(参考訳): 人間は常にオブジェクトを投げ、キャッチします。
ロボットはそのようなダイナミックなアクションを高速で操作し、正確なコラボレーションを行い、多様なオブジェクトと対話する必要がある。
本稿では,ロボットアームに2本の指を装着したシステムを設計し,この問題を解決する。
シミュレーションではマルチエージェント強化学習を用いてシステムを訓練し,実ロボットに展開するためにsim2実数転送を行う。
sim2実数ギャップを克服するために,対象物の軌道予測モデル学習を含む複数の新しいアルゴリズム設計を提案する。
このようなモデルは、ロボットキャッチャーがオブジェクトの方向をリアルタイムで推定し、それに応じて反応するのに役立つ。
実世界のシステムにおいて,複数のオブジェクトを用いて実験を行い,複数のベースラインに対する大幅な改善を示す。
プロジェクトページは \url{https://binghao-huang.github.io/dynamic_handover/} で閲覧できます。
関連論文リスト
- RoboCasa: Large-Scale Simulation of Everyday Tasks for Generalist Robots [25.650235551519952]
本稿では,汎用ロボットを日常的に訓練するための大規模シミュレーションフレームワークであるRoboCasaを紹介する。
私たちは、150以上のオブジェクトカテゴリと数十の対話可能な家具とアプライアンスに対して、何千もの3Dアセットを提供しています。
本実験は, 大規模模倣学習のための合成ロボットデータを用いて, スケーリングの傾向を明らかにするものである。
論文 参考訳(メタデータ) (2024-06-04T17:41:31Z) - Track2Act: Predicting Point Tracks from Internet Videos enables Generalizable Robot Manipulation [65.46610405509338]
我々は、ゼロショットロボット操作を可能にする汎用的な目標条件ポリシーを学習することを目指している。
私たちのフレームワークであるTrack2Actは、ゴールに基づいて将来のタイムステップで画像内のポイントがどのように動くかを予測する。
学習したトラック予測を残留ポリシーと組み合わせることで,多種多様な汎用ロボット操作が可能となることを示す。
論文 参考訳(メタデータ) (2024-05-02T17:56:55Z) - RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - HomeRobot: Open-Vocabulary Mobile Manipulation [107.05702777141178]
Open-Vocabulary Mobile Manipulation (OVMM) は、目に見えない環境で任意のオブジェクトを選択し、命令された場所に配置する問題である。
HomeRobotには2つのコンポーネントがある。シミュレーションコンポーネントは、新しい高品質のマルチルームホーム環境に、大規模で多様なキュレートされたオブジェクトセットを使用する。
論文 参考訳(メタデータ) (2023-06-20T14:30:32Z) - Affordances from Human Videos as a Versatile Representation for Robotics [31.248842798600606]
我々は、人間がどこでどのように対話するかを推定する視覚的余裕モデルを訓練する。
これらの行動割当の構造は、ロボットが多くの複雑なタスクを直接実行できるようにする。
私たちは、VRBと呼ばれる4つの現実世界環境、10以上のタスクと2つのロボットプラットフォームにおいて、私たちのアプローチの有効性を示します。
論文 参考訳(メタデータ) (2023-04-17T17:59:34Z) - DexTransfer: Real World Multi-fingered Dexterous Grasping with Minimal
Human Demonstrations [51.87067543670535]
本研究では,少数の人間によるデモンストレーションを行い,見えない物体のポーズを学習するロボット学習システムを提案する。
我々は,物体の点群を入力として捉え,物体を異なる初期ロボット状態から把握するための連続的な動作を予測する,厳密な把握ポリシーを訓練する。
我々のデータセットから学んだポリシーは、シミュレーションと現実世界の両方で見えないオブジェクトのポーズをうまく一般化することができる。
論文 参考訳(メタデータ) (2022-09-28T17:51:49Z) - Malleable Agents for Re-Configurable Robotic Manipulators [0.0]
本稿では,深部ニューラルネットワークにシーケンスニューラルネットワークを組み込んだRLエージェントを提案する。
ドメインランダム化の新たなツールにより、このエージェントはリンクの数/長さやダイナミックスノイズの異なる構成に適応する。
論文 参考訳(メタデータ) (2022-02-04T21:22:00Z) - V-MAO: Generative Modeling for Multi-Arm Manipulation of Articulated
Objects [51.79035249464852]
本稿では,音声による物体のマルチアーム操作を学習するためのフレームワークを提案する。
本フレームワークは,各ロボットアームの剛部上の接触点分布を学習する変動生成モデルを含む。
論文 参考訳(メタデータ) (2021-11-07T02:31:09Z) - Learning Cross-Domain Correspondence for Control with Dynamics
Cycle-Consistency [60.39133304370604]
サイクル一貫性制約を用いて2つのドメインで動的ロボットの挙動を調整することを学ぶ。
本フレームワークは,実ロボットアームの無補間単眼映像とシミュレーションアームの動的状態動作軌跡をペアデータなしで一致させることができる。
論文 参考訳(メタデータ) (2020-12-17T18:22:25Z) - robo-gym -- An Open Source Toolkit for Distributed Deep Reinforcement
Learning on Real and Simulated Robots [0.5161531917413708]
本稿では,ロボットによる深層強化学習を向上するためのオープンソースのツールキット,robo-gymを提案する。
シミュレーションにおけるトレーニングからロボットへのシームレスな移動を可能にするシミュレーション環境と実環境の統一的なセットアップを実証する。
産業用ロボットを特徴とする2つの実世界アプリケーションを用いて,本フレームワークの能力と有効性を示す。
論文 参考訳(メタデータ) (2020-07-06T13:51:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。