論文の概要: MTAC: Hierarchical Reinforcement Learning-based Multi-gait
Terrain-adaptive Quadruped Controller
- arxiv url: http://arxiv.org/abs/2401.03337v1
- Date: Wed, 1 Nov 2023 18:17:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 09:19:04.384839
- Title: MTAC: Hierarchical Reinforcement Learning-based Multi-gait
Terrain-adaptive Quadruped Controller
- Title(参考訳): mtac:階層強化学習に基づくマルチゲイト地形適応四足制御
- Authors: Nishaant Shah, Kshitij Tiwari, and Aniket Bera
- Abstract要約: 動的・荒地環境における四足歩行ロボットの制御は、これらのロボットの自由度が高いため、難しい問題である。
現在の四足歩行制御装置は、複数の適応歩行を生産し、時間と資源効率のよい方法でタスクを解く能力に制限があり、面倒なトレーニングと手動のチューニング手順を必要とする。
時間とメモリ効率を両立させながら階層的強化学習(HRL)アプローチを利用するマルチゲット地形適応型コントローラMTACを提案する。
- 参考スコア(独自算出の注目度): 12.300578189051963
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Urban search and rescue missions require rapid first response to minimize
loss of life and damage. Often, such efforts are assisted by humanitarian
robots which need to handle dynamic operational conditions such as uneven and
rough terrains, especially during mass casualty incidents like an earthquake.
Quadruped robots, owing to their versatile design, have the potential to assist
in such scenarios. However, control of quadruped robots in dynamic and rough
terrain environments is a challenging problem due to the many degrees of
freedom of these robots. Current locomotion controllers for quadrupeds are
limited in their ability to produce multiple adaptive gaits, solve tasks in a
time and resource-efficient manner, and require tedious training and manual
tuning procedures. To address these challenges, we propose MTAC: a multi-gait
terrain-adaptive controller, which utilizes a Hierarchical reinforcement
learning (HRL) approach while being time and memory-efficient. We show that our
proposed method scales well to a diverse range of environments with similar
compute times as state-of-the-art methods. Our method showed greater than 75%
on most tasks, outperforming previous work on the majority of test cases.
- Abstract(参考訳): 都市の捜索と救助の任務は、命と損害の損失を最小限に抑えるために迅速なファーストレスポンスを必要とする。
このような取り組みは、特に地震のような大量死事故において、凹凸や荒地のような動的な操作条件を扱わなければならない人道的なロボットによって支援されることが多い。
四足歩行ロボットは、多用途の設計のため、このようなシナリオを支援する可能性がある。
しかし、動的・荒地環境における四足歩行ロボットの制御は、これらのロボットの自由度が多ければ難しい問題である。
現在の四足歩行用ロコモーションコントローラは、複数の適応歩行を生成でき、時間とリソース効率のよい方法でタスクを解き、退屈なトレーニングと手動のチューニング手順を必要とする。
これらの課題に対処するために,階層的強化学習(HRL)を用いたマルチゲット地形適応型コントローラMTACを提案する。
提案手法は,最先端の手法と同様の計算時間を持つ多様な環境に適用できることを示す。
提案手法は,ほとんどのタスクで75%以上動作し,ほとんどのテストケースで従来の作業よりも優れていた。
関連論文リスト
- Commonsense Reasoning for Legged Robot Adaptation with Vision-Language Models [81.55156507635286]
脚のついたロボットは、様々な環境をナビゲートし、幅広い障害を克服することができる。
現在の学習手法は、人間の監督を伴わずに、予期せぬ状況の長い尾への一般化に苦慮することが多い。
本稿では,VLM-Predictive Control (VLM-PC) というシステムを提案する。
論文 参考訳(メタデータ) (2024-07-02T21:00:30Z) - Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal Locomotion Control [106.32794844077534]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - Learning and Adapting Agile Locomotion Skills by Transferring Experience [71.8926510772552]
本稿では,既存のコントローラから新しいタスクを学習するために経験を移譲することで,複雑なロボティクススキルを訓練するためのフレームワークを提案する。
提案手法は,複雑なアジャイルジャンプ行動の学習,後肢を歩いたまま目標地点への移動,新しい環境への適応を可能にする。
論文 参考訳(メタデータ) (2023-04-19T17:37:54Z) - Bi-Manual Manipulation and Attachment via Sim-to-Real Reinforcement
Learning [23.164743388342803]
シミュレーションで訓練された強化学習を用いて,両手作業の解法について検討する。
また、RLポリシーの効果的なトレーニングにつながるシミュレーション環境の変更についても検討する。
本研究では,2つのロボットアームが磁気的接続点を持つ2つのブロックを拾い上げるための接続タスクを設計する。
論文 参考訳(メタデータ) (2022-03-15T21:49:20Z) - Autonomous Warehouse Robot using Deep Q-Learning [0.5138012450471438]
倉庫では、特殊エージェントがナビゲートし、障害物を避け、空間の使用を最大化する必要がある。
本稿では,ロボットナビゲーションと障害物回避問題に対処するために,Deep Reinforcement Learning (DRL) を提案する。
マルチエージェントQ-ラーニングの実行には,Q-tableの戦略的なバリエーションを用いる。
論文 参考訳(メタデータ) (2022-02-21T07:16:51Z) - OSCAR: Data-Driven Operational Space Control for Adaptive and Robust
Robot Manipulation [50.59541802645156]
オペレーショナル・スペース・コントロール(OSC)は、操作のための効果的なタスクスペース・コントローラとして使われてきた。
本稿では,データ駆動型OSCのモデル誤差を補償するOSC for Adaptation and Robustness (OSCAR)を提案する。
本手法は,様々なシミュレーション操作問題に対して評価し,制御器のベースラインの配列よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2021-10-02T01:21:38Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - Reinforcement Learning with Evolutionary Trajectory Generator: A General
Approach for Quadrupedal Locomotion [29.853927354893656]
進化的足跡生成器を含む新しいRLに基づくアプローチを提案する。
ジェネレータは、与えられたタスクの出力軌跡の形状を継続的に最適化し、ポリシー学習のガイドとなる多様な動作前を提供する。
我々は,12-DoF四足歩行ロボットのシミュレーションで学習したコントローラをデプロイし,効率の良い歩行で挑戦的なシナリオを横切ることに成功した。
論文 参考訳(メタデータ) (2021-09-14T02:51:50Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z) - Proficiency Constrained Multi-Agent Reinforcement Learning for
Environment-Adaptive Multi UAV-UGV Teaming [2.745883395089022]
空中と地上の混成ロボットチームは、災害救助、社会保障、精密農業、軍事任務に広く利用されている。
そこで本研究では,Mix-RL (Mix-RL) を用いた地上・空中協調学習手法を開発した。
Mix-RLは、タスク要件と環境条件へのロボット機能の適用を認識しながら、ロボット機能を利用する。
論文 参考訳(メタデータ) (2020-02-10T16:19:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。