論文の概要: Grasp and Motion Planning for Dexterous Manipulation for the Real Robot
Challenge
- arxiv url: http://arxiv.org/abs/2101.02842v1
- Date: Fri, 8 Jan 2021 04:13:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-10 12:01:02.534094
- Title: Grasp and Motion Planning for Dexterous Manipulation for the Real Robot
Challenge
- Title(参考訳): リアルロボットチャレンジのためのデクサラスマニピュレーションのためのグラフと運動計画
- Authors: Takuma Yoneda, Charles Schaff, Takahiro Maeda, Matthew Walter
- Abstract要約: リアルロボットチャレンジ(Real Robot Challenge)は、三相の巧妙な操作競争である。
我々のアプローチは、物体を操作するための動き計画といくつかの動きプリミティブを組み合わせる。
私たちは匿名で競争リーダーボードの「ardentstork」として知られていました。
- 参考スコア(独自算出の注目度): 0.05735035463793007
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This report describes our winning submission to the Real Robot Challenge
(https://real-robot-challenge.com/). The Real Robot Challenge is a three-phase
dexterous manipulation competition that involves manipulating various
rectangular objects with the TriFinger Platform. Our approach combines motion
planning with several motion primitives to manipulate the object. For Phases 1
and 2, we additionally learn a residual policy in simulation that applies
corrective actions on top of our controller. Our approach won first place in
Phase 2 and Phase 3 of the competition. We were anonymously known as
`ardentstork' on the competition leaderboard
(https://real-robot-challenge.com/leader-board). Videos and our code can be
found at https://github.com/ripl-ttic/real-robot-challenge.
- Abstract(参考訳): 本報告では、real robot challenge(https://real-robot-challenge.com/)の優勝作品について述べる。
リアル・ロボット・チャレンジ(Real Robot Challenge)は、TriFinger Platformで様々な長方形の物体を操作する3段階の巧妙な操作競技である。
我々のアプローチは、物体を操作するための動き計画といくつかの動きプリミティブを組み合わせる。
フェーズ1とフェーズ2では、コントローラの上に補正アクションを適用するシミュレーションで残留ポリシーも学習します。
私たちのアプローチは、コンテストの第2フェーズと第3フェーズで優勝しました。
競争リーダーボード(https://real-robot-challenge.com/leader-board)では、匿名で'ardentstork'として知られていた。
ビデオとわれわれのコードはhttps://github.com/ripl-ttic/real-robot-challengeで見ることができる。
関連論文リスト
- Large-Scale Actionless Video Pre-Training via Discrete Diffusion for
Efficient Policy Learning [73.69573252516761]
本稿では,人間のビデオにおける生成前訓練とアクションラベル付きロボットビデオのポリシー微調整を組み合わせた新しいフレームワークを提案する。
提案手法は, 従来の最先端手法と比較して, 高忠実度な今後の計画ビデオを生成し, 細調整されたポリシーを強化する。
論文 参考訳(メタデータ) (2024-02-22T09:48:47Z) - Pedipulate: Enabling Manipulation Skills using a Quadruped Robot's Leg [11.129918951736052]
脚のついたロボットは、メンテナンス、ホームサポート、探索のシナリオにおいて不可欠になる可能性がある。
本研究では,ロボットの脚を操作に用いたペディピュレーションについて検討する。
論文 参考訳(メタデータ) (2024-02-16T17:20:45Z) - Real Robot Challenge 2022: Learning Dexterous Manipulation from Offline
Data in the Real World [38.54892412474853]
リアルロボットチャレンジ2022は、強化学習とロボティクスのコミュニティの間の橋として機能した。
我々は参加者に、提供された実ロボットデータセットからプッシュ、グリップ、手動の向きを含む2つの巧妙な操作タスクを学ぶように頼んだ。
大規模なソフトウェアドキュメンテーションと、実際のセットアップのシミュレーションに基づく初期ステージにより、競争は特にアクセスしやすくなった。
論文 参考訳(メタデータ) (2023-08-15T12:40:56Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Polybot: Training One Policy Across Robots While Embracing Variability [70.74462430582163]
複数のロボットプラットフォームにデプロイするための単一のポリシーをトレーニングするための重要な設計決定セットを提案する。
われわれのフレームワークは、まず、手首カメラを利用して、我々のポリシーの観察空間と行動空間を具体化して調整する。
6つのタスクと3つのロボットにまたがる60時間以上のデータセットを用いて,関節の形状や大きさの異なるデータセットの評価を行った。
論文 参考訳(メタデータ) (2023-07-07T17:21:16Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Learning Video-Conditioned Policies for Unseen Manipulation Tasks [83.2240629060453]
ビデオ条件付きポリシー学習は、以前は目に見えないタスクの人間のデモをロボット操作スキルにマッピングする。
我々は,現在のシーン観察と対象課題のビデオから適切なアクションを生成するためのポリシーを学習する。
われわれは,多タスクロボット操作環境の課題と,技術面における性能の面から,そのアプローチを検証した。
論文 参考訳(メタデータ) (2023-05-10T16:25:42Z) - GenLoco: Generalized Locomotion Controllers for Quadrupedal Robots [87.32145104894754]
四足歩行ロボットのための汎用ロコモーション(GenLoco)コントローラを訓練するためのフレームワークを提案する。
本フレームワークは,多種多様な四足歩行ロボットに展開可能な汎用ロコモーションコントローラを合成する。
我々のモデルは、より一般的な制御戦略を取得し、新しいシミュレーションロボットや実世界のロボットに直接移行できることを示す。
論文 参考訳(メタデータ) (2022-09-12T15:14:32Z) - Real Robot Challenge using Deep Reinforcement Learning [6.332038240397164]
本稿では,2021年リアルロボットチャレンジの第1フェーズの優勝を詳述する。
課題は、3本指のロボットが特定の目標軌道に沿って立方体を運ばなければならないことだ。
我々は、ロボットシステムの知識を最小限にする必要のある、純粋な強化学習アプローチを使用している。
論文 参考訳(メタデータ) (2021-09-30T16:12:17Z) - Know Thyself: Transferable Visuomotor Control Through Robot-Awareness [22.405839096833937]
新しいロボットをスクラッチからトレーニングするためには、通常大量のロボット固有のデータを生成する必要がある。
簡単なロボット「自己認識」を活用する「ロボット認識」ソリューションパラダイムを提案する。
シミュレーションおよび実際のロボットにおけるテーブルトップ操作に関する実験により、これらのプラグインの改善により、ビジュモータコントローラの転送性が劇的に向上することを示した。
論文 参考訳(メタデータ) (2021-07-19T17:56:04Z) - Learning Locomotion Skills in Evolvable Robots [10.167123492952694]
本稿では,任意の形状のモジュール型ロボットが目標に向かって歩いたり,移動した場合にこの目標に従うことを学習できるようにするための,コントローラアーキテクチャと汎用学習手法を提案する。
我々のアプローチは、現実世界の3つのシナリオにおいて、クモ、ヤモリ、そしてその子孫の3つのロボットに対して検証されている。
論文 参考訳(メタデータ) (2020-10-19T14:01:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。