論文の概要: SLIM: Sim-to-Real Legged Instructive Manipulation via Long-Horizon Visuomotor Learning
- arxiv url: http://arxiv.org/abs/2501.09905v2
- Date: Wed, 22 Jan 2025 01:48:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-23 13:30:51.994106
- Title: SLIM: Sim-to-Real Legged Instructive Manipulation via Long-Horizon Visuomotor Learning
- Title(参考訳): SLIM----real Legged Instructive Manipulation by Long-Horizon Visuomotor Learning
- Authors: Haichao Zhang, Haonan Yu, Le Zhao, Andrew Choi, Qinxun Bai, Break Yang, Wei Xu,
- Abstract要約: 本稿では,シミュレーションで純粋に強化学習によって訓練された実世界の課題を,低コストで解決するモバイル操作システムを提案する。
単一のポリシーは、検索、移動、把握、ドロップイントのような長期的タスクを自律的に解決し、80%近い成功を収める。
このパフォーマンスは、同じタスクで専門家の遠隔操作に匹敵するが、より効率的な方法で運用される。
- 参考スコア(独自算出の注目度): 20.33419404756149
- License:
- Abstract: We present a low-cost legged mobile manipulation system that solves long-horizon real-world tasks, trained by reinforcement learning purely in simulation. This system is made possible by 1) a hierarchical design of a high-level policy for visual-mobile manipulation following instructions and a low-level policy for quadruped movement and limb control, 2) a progressive exploration and learning approach that leverages privileged task decomposition information to train the teacher policy for long-horizon tasks, which will guide an imitation-based student policy for efficient training of the high-level visuomotor policy, and 3) a suite of techniques for minimizing sim-to-real gaps. In contrast to previous approaches that use high-end equipment, our system demonstrates effective performance with more accessible hardware - specifically, a Unitree Go1 quadruped, a WidowX250S arm, and a single wrist-mounted RGB camera - despite the increased challenges of sim-to-real transfer. When fully trained in simulation, a single policy autonomously solves long-horizon tasks such as search, move, grasp, and drop-into, achieving nearly 80% success. This performance is comparable to that of expert human teleoperation on the same tasks but operates in a more efficient way, at 1.5 times the speed of human expert. The sim-to-real transfer is fluid across diverse indoor and outdoor scenes under varying lighting conditions. Finally, we discuss the key techniques that enable the entire pipeline, including efficient RL training and sim-to-real, to work effectively for legged mobile manipulation, and present their ablation results.
- Abstract(参考訳): そこで本研究では,シミュレーションにおける強化学習によって訓練された,長期的実世界の課題を解消する,低コストな脚型移動操作システムを提案する。
このシステムは実現される。
1)四足歩行と手足制御の低レベル政策と指示に従う視覚移動操作のための高レベル政策の階層的設計。
2 特権的タスク分解情報を利用して長期的タスクの教師政策を訓練する進歩的探究学習アプローチにより、高水準ビズモータ政策の効率的なトレーニングのための模擬的学生政策を導出する。
3)sim-to-realギャップを最小化するための一連のテクニック。
ハイエンド機器を使用する従来のアプローチとは対照的に、我々のシステムはよりアクセスしやすいハードウェア(特にUnitree Go1の四脚、WidowX250Sアーム、手首に装着されたRGBカメラ)で効果的な性能を示す。
シミュレーションで完全に訓練された場合、単一のポリシーは、検索、移動、把握、ドロップイントといった長期的タスクを自律的に解決し、80%近い成功を収める。
このパフォーマンスは、同じタスクで専門家の遠隔操作に匹敵するが、より効率的な方法で運用される。
sim-to-real転送は、様々な照明条件下で様々な屋内および屋外のシーンに流動的である。
最後に、効率的なRLトレーニングやsim-to-realを含むパイプライン全体の脚の移動操作を効果的に行うための重要な技術について議論し、そのアブレーション結果を示す。
関連論文リスト
- WildLMa: Long Horizon Loco-Manipulation in the Wild [18.542469512253295]
In-the-wildモバイル操作は、さまざまな現実世界環境にロボットを配置することを目的としている。
WildLMaは、模倣や学習プランナーを通じて得られる、汎用的なビズモータスキルのライブラリである。
我々は,大学の廊下や屋外の地形でゴミを掃除するなど,実用的なロボット応用を実演する。
論文 参考訳(メタデータ) (2024-11-22T18:56:56Z) - Single-Shot Learning of Stable Dynamical Systems for Long-Horizon Manipulation Tasks [48.54757719504994]
本稿では,必要なトレーニングデータ量を削減しつつ,タスク成功率の向上に焦点をあてる。
提案手法では,長距離実証をウェイポイントとサブゴールで定義された離散ステップに分割する手法を提案する。
シミュレーションと実世界の両方の実験を通して,本手法を検証し,シミュレーションから物理ロボットプラットフォームへの効果的移行を実証した。
論文 参考訳(メタデータ) (2024-10-01T19:49:56Z) - Bootstrapping Reinforcement Learning with Imitation for Vision-Based Agile Flight [20.92646531472541]
本稿では,Reinforcement Learning(RL)とImitation Learning(IL)のサンプル効率を組み合わせた新しいアプローチを提案する。
本フレームワークは、RLを用いた3段階の教員政策と、ILによる学生政策に蒸留する特権状態情報と、RLによる適応微調整とを含む。
テストでは、スクラッチからRLが失敗するシナリオだけでなく、ロバストさとパフォーマンスの両方で既存のILメソッドよりも優れています。
論文 参考訳(メタデータ) (2024-03-18T19:25:57Z) - Contrastive Learning for Enhancing Robust Scene Transfer in Vision-based
Agile Flight [21.728935597793473]
本研究では、ゼロショットシーン転送と実世界展開を可能にする視覚表現学習のための適応型マルチペアコントラスト学習戦略を提案する。
私たちは、アジャイルでビジョンベースの4倍体飛行のタスクに対して、私たちのアプローチのパフォーマンスを実演します。
論文 参考訳(メタデータ) (2023-09-18T15:25:59Z) - Efficient Learning of High Level Plans from Play [57.29562823883257]
本稿では,移動計画と深いRLを橋渡しするロボット学習のフレームワークであるELF-Pについて紹介する。
ELF-Pは、複数の現実的な操作タスクよりも、関連するベースラインよりもはるかに優れたサンプル効率を有することを示す。
論文 参考訳(メタデータ) (2023-03-16T20:09:47Z) - DeXtreme: Transfer of Agile In-hand Manipulation from Simulation to
Reality [64.51295032956118]
我々は人型ロボットの手で頑健な操作を行える政策を訓練する。
本研究は,各種ハードウェアおよびシミュレータのデクスタラス操作におけるsim-to-real転送の可能性を再確認する。
論文 参考訳(メタデータ) (2022-10-25T01:51:36Z) - Learning Pneumatic Non-Prehensile Manipulation with a Mobile Blower [30.032847855193864]
管制官は 常に 行動の予期せぬ変化に 適応しなければならない。
本稿では,空間行動マップフレームワークのマルチ周波数バージョンを紹介する。
これにより、高レベルの計画と低レベルのクローズドループ制御を効果的に組み合わせたビジョンベースのポリシーの効率的な学習が可能になる。
論文 参考訳(メタデータ) (2022-04-05T17:55:58Z) - Reactive Long Horizon Task Execution via Visual Skill and Precondition
Models [59.76233967614774]
シミュレーションで学習したモデルを用いて、単純なタスクプランナの構成要素をグラウンド化することで、見知らぬロボットタスクを達成できるシミュレート・トゥ・リアル・トレーニングのアプローチについて述べる。
シミュレーションでは91.6%から98%,実世界の成功率は10%から80%に増加した。
論文 参考訳(メタデータ) (2020-11-17T15:24:01Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。