論文の概要: Learning Semantics-Aware Locomotion Skills from Human Demonstration
- arxiv url: http://arxiv.org/abs/2206.13631v1
- Date: Mon, 27 Jun 2022 21:08:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-02 18:32:10.742712
- Title: Learning Semantics-Aware Locomotion Skills from Human Demonstration
- Title(参考訳): セマンティクスの学習-人間によるロコモーションスキルの認識
- Authors: Yuxiang Yang, Xiangyun Meng, Wenhao Yu, Tingnan Zhang, Jie Tan, Byron
Boots
- Abstract要約: 四足歩行ロボットの知覚からセマンティクスを意識したロコモーションスキルを学習するフレームワークを提案する。
本フレームワークは,認識された地形意味に基づいてロボットの速度と歩行を調整し,失敗することなく6km以上歩けるようにする。
- 参考スコア(独自算出の注目度): 35.996425893483796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The semantics of the environment, such as the terrain type and property,
reveals important information for legged robots to adjust their behaviors. In
this work, we present a framework that learns semantics-aware locomotion skills
from perception for quadrupedal robots, such that the robot can traverse
through complex offroad terrains with appropriate speeds and gaits using
perception information. Due to the lack of high-fidelity outdoor simulation,
our framework needs to be trained directly in the real world, which brings
unique challenges in data efficiency and safety. To ensure sample efficiency,
we pre-train the perception model with an off-road driving dataset. To avoid
the risks of real-world policy exploration, we leverage human demonstration to
train a speed policy that selects a desired forward speed from camera image.
For maximum traversability, we pair the speed policy with a gait selector,
which selects a robust locomotion gait for each forward speed. Using only 40
minutes of human demonstration data, our framework learns to adjust the speed
and gait of the robot based on perceived terrain semantics, and enables the
robot to walk over 6km without failure at close-to-optimal speed.
- Abstract(参考訳): 地形の種類や特性などの環境の意味論は、脚のあるロボットが行動を調整する上で重要な情報を明らかにする。
本研究では,四足歩行ロボットの知覚からセマンティクスを意識した歩行スキルを学習するフレームワークを提案する。
高忠実な屋外シミュレーションが欠如しているため、我々のフレームワークは現実世界で直接訓練する必要がある。
サンプル効率を確保するため、オフロード駆動データセットを用いて知覚モデルを事前学習する。
実世界の政策探索のリスクを回避するため、人間の実証を利用してカメラ画像から所望の前進速度を選択する速度ポリシーを訓練する。
最大走行性のために,各前進速度に対してロバストな移動歩行を選択する歩行セレクタと,速度ポリシをペアリングする。
人間の実演データのたった40分で、認識された地形のセマンティクスに基づいてロボットの速度と歩行を調節し、ロボットが最適に近い速度で失敗することなく6km以上歩けるようにする。
関連論文リスト
- SoloParkour: Constrained Reinforcement Learning for Visual Locomotion from Privileged Experience [19.817578964184147]
Parkourは、足のついたロボットにとって重要な課題であり、限られた感覚入力に基づいて、俊敏性と精度で複雑な環境をナビゲートする必要がある。
本稿では,深度画素からロボット制御コマンドに至るまでのエンドツーエンドの視覚ポリシーをトレーニングし,アジャイルで安全な四足歩行を実現するための新しい手法を提案する。
本研究では,実際のSolo-12ロボットにおいて,歩行,登山,跳躍,クロールなど,さまざまなパーキングスキルを実行する能力を示す。
論文 参考訳(メタデータ) (2024-09-20T17:39:20Z) - Hybrid Internal Model: Learning Agile Legged Locomotion with Simulated
Robot Response [25.52492911765911]
ロボットの応答に応じて外部状態を推定するためにハイブリッド内部モデルを導入する。
この応答は、ハイブリッドな内部埋め込みと呼ばれ、ロボットの明示的な速度と暗黙的な安定性の表現を含んでいる。
実世界の多くの実験が、トレーニングプロセス中に一度も起こらなかった、高度に分散したタスクやケースにおいても、その俊敏性を示している。
論文 参考訳(メタデータ) (2023-12-18T18:59:06Z) - Surfer: Progressive Reasoning with World Models for Robotic Manipulation [51.26109827779267]
本稿では,新しいシンプルなロボット操作フレームワークであるSurferを紹介する。
Surferは、ロボット操作を視覚シーンの状態伝達として扱い、それをアクションとシーンという2つの部分に分割する。
これは世界モデルに基づいており、ロボット操作を視覚シーンの状態伝達として扱い、アクションとシーンの2つの部分に分けられる。
論文 参考訳(メタデータ) (2023-06-20T07:06:04Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Barkour: Benchmarking Animal-level Agility with Quadruped Robots [70.97471756305463]
脚付きロボットのアジリティを定量化するための障害物コースであるBarkourベンチマークを導入する。
犬の機敏性の競争に触発され、様々な障害と時間に基づくスコアリング機構から構成される。
ベンチマークに対処する2つの方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T02:49:43Z) - Fast Traversability Estimation for Wild Visual Navigation [17.015268056925745]
トラバーサビリティ推定のためのオンライン自己教師型学習システムであるWild Visual Navigation (WVN)を提案する。
このシステムは、現場での短い人間のデモから継続的に適応することができる。
森林・公園・草地における挑戦的環境における実験・アブレーション研究によるアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-05-15T10:19:30Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Coupling Vision and Proprioception for Navigation of Legged Robots [65.59559699815512]
我々は視覚と受容の相補的な強みを利用して、脚のあるロボットでポイントゴールナビゲーションを実現する。
車輪付きロボット(LoCoBot)のベースラインよりも優れた性能を示す。
また,センサーと計算能力を備えた四足歩行ロボットに,我々のシステムを実環境に展開することも示す。
論文 参考訳(メタデータ) (2021-12-03T18:59:59Z) - Quadruped Locomotion on Non-Rigid Terrain using Reinforcement Learning [10.729374293332281]
非剛性な動的地形上での移動学習のための新しい強化学習フレームワークを提案する。
55cmのトレーニングを受けたロボットは、最大5cmまで沈むことができる地形を歩ける。
様々な地形条件でロボットを訓練することで,本手法の有効性を示す。
論文 参考訳(メタデータ) (2021-07-07T00:34:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。