論文の概要: Visual CPG-RL: Learning Central Pattern Generators for Visually-Guided
Quadruped Locomotion
- arxiv url: http://arxiv.org/abs/2212.14400v2
- Date: Mon, 11 Mar 2024 16:49:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 18:01:51.293577
- Title: Visual CPG-RL: Learning Central Pattern Generators for Visually-Guided
Quadruped Locomotion
- Title(参考訳): Visual CPG-RL:視覚誘導四足歩行のための中央パターン生成器の学習
- Authors: Guillaume Bellegarda, Milad Shafiee, Auke Ijspeert
- Abstract要約: 視覚的に誘導された四足歩行を学習するための枠組みを提案する。
奥深い強化学習フレームワークに、外感知覚と中央パターン生成装置を統合する。
以上の結果から, CPG, 明示的インターオシレータ結合, メモリ対応ポリシ表現はエネルギー効率に有益であることが示唆された。
- 参考スコア(独自算出の注目度): 4.557963624437784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a framework for learning visually-guided quadruped locomotion by
integrating exteroceptive sensing and central pattern generators (CPGs), i.e.
systems of coupled oscillators, into the deep reinforcement learning (DRL)
framework. Through both exteroceptive and proprioceptive sensing, the agent
learns to coordinate rhythmic behavior among different oscillators to track
velocity commands, while at the same time override these commands to avoid
collisions with the environment. We investigate several open robotics and
neuroscience questions: 1) What is the role of explicit interoscillator
couplings between oscillators, and can such coupling improve sim-to-real
transfer for navigation robustness? 2) What are the effects of using a
memory-enabled vs. a memory-free policy network with respect to robustness,
energy-efficiency, and tracking performance in sim-to-real navigation tasks? 3)
How do animals manage to tolerate high sensorimotor delays, yet still produce
smooth and robust gaits? To answer these questions, we train our perceptive
locomotion policies in simulation and perform sim-to-real transfers to the
Unitree Go1 quadruped, where we observe robust navigation in a variety of
scenarios. Our results show that the CPG, explicit interoscillator couplings,
and memory-enabled policy representations are all beneficial for energy
efficiency, robustness to noise and sensory delays of 90 ms, and tracking
performance for successful sim-to-real transfer for navigation tasks. Video
results can be found at https://youtu.be/wpsbSMzIwgM.
- Abstract(参考訳): 本稿では,複合発振器のシステムである外部知覚・中央パターン生成器(CPG)を深部強化学習(DRL)フレームワークに統合することにより,視覚誘導四足歩行を学習するための枠組みを提案する。
エクスセプティブとプロプリセプティブの両方のセンシングを通じて、エージェントは異なる発振器間のリズム動作を調整して速度指令を追跡すると同時に、これらのコマンドをオーバーライドして環境との衝突を避ける。
オープンロボティクスと神経科学に関するいくつかの質問について調べる。
1) 振動子間の明示的な振動子間カップリングの役割は何か、そのようなカップリングはナビゲーションのロバスト性を改善することができるのか?
2)sim-to-realナビゲーションタスクにおけるロバスト性,エネルギ効率,トラッキング性能に関して,メモリ対応対メモリフリーポリシネットワークの効果はどのようなものか?
3)動物はどのようにして高い感覚運動遅延を許容するが、滑らかでロバストな歩行をするのだろうか。
これらの質問に答えるために、私たちは知覚的なロコモーションポリシーをシミュレーションで訓練し、unitree go1 4rupedへのsim-to-real転送を行い、さまざまなシナリオでロバストなナビゲーションを観察します。
以上の結果から, CPG, 明示的インターオシレータ結合, メモリ対応ポリシ表現は, エネルギー効率, 90msのノイズや知覚遅延に対する頑健性, ナビゲーションタスクのシミュレート・リアル転送における性能の追跡に有用であることが示唆された。
ビデオ結果はhttps://youtu.be/wpsbSMzIwgMで見ることができる。
関連論文リスト
- Autonomous Vehicle Controllers From End-to-End Differentiable Simulation [60.05963742334746]
そこで我々は,AVコントローラのトレーニングにAPG(analytic Policy gradients)アプローチを適用可能なシミュレータを提案し,その設計を行う。
提案するフレームワークは, エージェントがより根底的なポリシーを学ぶのを助けるために, 環境力学の勾配を役立てる, エンド・ツー・エンドの訓練ループに, 微分可能シミュレータを組み込む。
ダイナミクスにおけるパフォーマンスとノイズに対する堅牢性の大幅な改善と、全体としてより直感的なヒューマンライクな処理が見られます。
論文 参考訳(メタデータ) (2024-09-12T11:50:06Z) - CPG-RL: Learning Central Pattern Generators for Quadruped Locomotion [4.56877715768796]
本稿では, 集中型パターン生成装置(CPG)を深部強化学習フレームワークに統合し, 頑健な四足歩行を実現する手法を提案する。
シミュレーションでポリシをトレーニングし、Unitree A1の4倍体へのシミュレート・トゥ・リアル転送を行い、トレーニング中に見えない障害に対するロバストな振る舞いを観察する。
論文 参考訳(メタデータ) (2022-11-01T13:41:13Z) - Learning Low-Frequency Motion Control for Robust and Dynamic Robot
Locomotion [10.838285018473725]
実ANYmal C四重極上で8Hzの低速動作を行う学習モーションコントローラを用いて,ロバストでダイナミックな移動を実演する。
このロボットは、1.5m/sの高速度を頑健かつ反復的に達成し、不均一な地形を横切ることができ、予期せぬ外乱に抵抗することができる。
論文 参考訳(メタデータ) (2022-09-29T15:55:33Z) - Learning to Walk by Steering: Perceptive Quadrupedal Locomotion in
Dynamic Environments [25.366480092589022]
四足歩行ロボットは、環境の乱雑さや移動する障害物に応答して、頑丈で機敏な歩行行動を示す必要がある。
本稿では,知覚的移動の問題をハイレベルな意思決定に分解する,PreLUDEという階層型学習フレームワークを提案する。
シミュレーションおよびハードウェア実験において,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-09-19T17:55:07Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - MFGNet: Dynamic Modality-Aware Filter Generation for RGB-T Tracking [72.65494220685525]
可視データと熱データ間のメッセージ通信を促進するために,新しい動的モダリティ対応フィルタ生成モジュール(MFGNet)を提案する。
我々は、2つの独立ネットワークを持つ動的モダリティ対応フィルタを生成し、その可視フィルタとサーマルフィルタをそれぞれ、対応する入力特徴写像上で動的畳み込み演算を行う。
重閉塞,高速移動,外見による問題に対処するため,新たな方向認識型目標誘導型アテンション機構を活用することで,共同で局所的・グローバル検索を行うことを提案する。
論文 参考訳(メタデータ) (2021-07-22T03:10:51Z) - DriveGAN: Towards a Controllable High-Quality Neural Simulation [147.6822288981004]
DriveGANと呼ばれる新しい高品質のニューラルシミュレータを紹介します。
DriveGANは、異なるコンポーネントを監督なしで切り離すことによって制御性を達成する。
実世界の運転データ160時間を含む複数のデータセットでdriveganをトレーニングします。
論文 参考訳(メタデータ) (2021-04-30T15:30:05Z) - LiDAR-based Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
LiDARベースのパノプティカルセグメンテーションは、オブジェクトとシーンを統一的に解析することを目的としている。
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,現在の最先端手法よりも優れた精度を実現する。
論文 参考訳(メタデータ) (2020-11-24T08:44:46Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z) - CARL: Controllable Agent with Reinforcement Learning for Quadruped
Locomotion [0.0]
CARLは、高レベルの指示で制御でき、動的環境に自然に反応できる4重結合剤である。
我々は、ジェネレーティブ・アドリラル・ネットワークを使用して、速度や方向などのハイレベルな制御を、オリジナルのアニメーションに対応するアクション・ディストリビューションに適応させる。
深部強化学習によるさらなる微調整により、エージェントは、スムーズな遷移を発生させながら、目に見えない外部摂動から回復することができる。
論文 参考訳(メタデータ) (2020-05-07T07:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。