論文の概要: An Energy-Saving Snake Locomotion Gait Policy Using Deep Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2103.04511v1
- Date: Mon, 8 Mar 2021 02:06:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 19:14:24.237261
- Title: An Energy-Saving Snake Locomotion Gait Policy Using Deep Reinforcement
Learning
- Title(参考訳): 深層強化学習を用いた省エネルギースネークロコモーション歩行政策
- Authors: Yilang Liu, Amir Barati Farimani
- Abstract要約: この研究では、エネルギー効率の高い制御のための深層強化学習(DRL)を介してヘビの移動歩行政策を開発する。
角速度でパラメータ化された各関節モータに近位政策最適化(ppo)を適用し,drlエージェントは各時間ステップで標準サーペノイド曲線を学習する。
従来の制御戦略と比較して、訓練されたppoエージェントによって制御されたスネークロボットは、より速く動き、よりエネルギー効率の良い歩行を実現できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Snake robots, comprised of sequentially connected joint actuators, have
recently gained increasing attention in the industrial field, like life
detection in narrow space. Such robot can navigate through the complex
environment via the cooperation of multiple motors located on the backbone.
However, controlling the robots under unknown environment is challenging, and
conventional control strategies can be energy inefficient or even fail to
navigate to the destination. In this work, a snake locomotion gait policy is
developed via deep reinforcement learning (DRL) for energy-efficient control.
We apply proximal policy optimization (PPO) to each joint motor parameterized
by angular velocity and the DRL agent learns the standard serpenoid curve at
each timestep. The robot simulator and task environment are built upon
PyBullet. Comparing to conventional control strategies, the snake robots
controlled by the trained PPO agent can achieve faster movement and more
energy-efficient locomotion gait. This work demonstrates that DRL provides an
energy-efficient solution for robot control.
- Abstract(参考訳): 連続的に接続された関節アクチュエータからなるスネークロボットは,近年,狭い空間での生活検知などの産業分野で注目を集めている。
このようなロボットは、バックボーンにある複数のモーターの協力によって複雑な環境をナビゲートすることができる。
しかし, 未知環境下でのロボットの制御は困難であり, 従来の制御戦略はエネルギー効率が悪く, 目的地への移動に失敗することもある。
この研究では、エネルギー効率の高い制御のための深層強化学習(DRL)を介してヘビの移動歩行政策を開発する。
角速度でパラメータ化された各関節モータに近位政策最適化(ppo)を適用し,drlエージェントは各時間ステップで標準サーペノイド曲線を学習する。
ロボットシミュレータとタスク環境はPyBullet上に構築されている。
従来の制御戦略と比較して、訓練されたppoエージェントによって制御されたスネークロボットは、より速く動き、よりエネルギー効率の良い歩行を実現できる。
この研究は、DRLがロボット制御にエネルギー効率の高いソリューションを提供することを示した。
関連論文リスト
- Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal Locomotion Control [106.32794844077534]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - Nonprehensile Planar Manipulation through Reinforcement Learning with
Multimodal Categorical Exploration [8.343657309038285]
強化学習はそのようなロボットコントローラを開発するための強力なフレームワークである。
分類分布を用いたマルチモーダル探索手法を提案する。
学習したポリシは外部の障害や観測ノイズに対して堅牢であり、複数のプッシュ器でタスクにスケールできることが示される。
論文 参考訳(メタデータ) (2023-08-04T16:55:00Z) - DeepCPG Policies for Robot Locomotion [1.0057838324294686]
より大きなニューラルネットワークのレイヤとしてCPGを組み込む新しいDeepCPGポリシー。
従来のアプローチと比較して、DeepCPGポリシーは効果的な移動戦略のサンプル効率のよいエンドツーエンド学習を可能にする。
以上の結果から,ロボットプラットフォーム上での非自明なセンサとモータの統合が実現できることが示唆された。
論文 参考訳(メタデータ) (2023-02-25T23:16:57Z) - Low-Rank Modular Reinforcement Learning via Muscle Synergy [25.120547719120765]
モジュール強化学習(RL)は、アクチュエータごとに学習ポリシーを学習することで、多関節ロボットの制御を分散化する。
ロボット制御におけるDoFの冗長性を利用したSOLAR(Synergy-Oriented LeARning)フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-26T16:01:31Z) - GenLoco: Generalized Locomotion Controllers for Quadrupedal Robots [87.32145104894754]
四足歩行ロボットのための汎用ロコモーション(GenLoco)コントローラを訓練するためのフレームワークを提案する。
本フレームワークは,多種多様な四足歩行ロボットに展開可能な汎用ロコモーションコントローラを合成する。
我々のモデルは、より一般的な制御戦略を取得し、新しいシミュレーションロボットや実世界のロボットに直接移行できることを示す。
論文 参考訳(メタデータ) (2022-09-12T15:14:32Z) - Human-AI Shared Control via Frequency-based Policy Dissection [34.0399894373716]
人間-AI共有制御は、複雑な環境で制御タスクを達成するために、人間がAIと対話し、協力することを可能にする。
従来の強化学習(RL)手法は、人間の制御可能なポリシーを達成するために目標条件付き設計を試みる。
我々は、学習したニューラルコントローラの中間表現とエージェント動作の運動特性を整合させる、TextitPolicy Dissectionと呼ばれるシンプルで効果的な周波数ベースのアプローチを開発した。
論文 参考訳(メタデータ) (2022-05-31T23:57:55Z) - Adapting Rapid Motor Adaptation for Bipedal Robots [73.5914982741483]
移動制御の急速な適応の最近の進歩を活用し、二足歩行ロボットで作業できるように拡張する。
A-RMAはモデルフリーRLを用いて微調整することで不完全外部推定器の基本方針を適応する。
シミュレーションにおいて,A-RMAはRLベースのベースラインコントローラやモデルベースコントローラよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-30T17:59:09Z) - Neural Dynamic Policies for End-to-End Sensorimotor Learning [51.24542903398335]
感覚運動制御における現在の主流パラダイムは、模倣であれ強化学習であれ、生の行動空間で政策を直接訓練することである。
軌道分布空間の予測を行うニューラル・ダイナミック・ポリシー(NDP)を提案する。
NDPは、いくつかのロボット制御タスクにおいて、効率と性能の両面で、これまでの最先端よりも優れている。
論文 参考訳(メタデータ) (2020-12-04T18:59:32Z) - COCOI: Contact-aware Online Context Inference for Generalizable
Non-planar Pushing [87.7257446869134]
一般的なコンタクトリッチな操作問題は、ロボット工学における長年の課題である。
深層強化学習は、ロボット操作タスクの解決に大きな可能性を示している。
動的プロパティのコンテキスト埋め込みをオンラインにエンコードする深層RL法であるCOCOIを提案する。
論文 参考訳(メタデータ) (2020-11-23T08:20:21Z) - Populations of Spiking Neurons for Reservoir Computing: Closed Loop
Control of a Compliant Quadruped [64.64924554743982]
本稿では,ニューラルネットワークを用いた中央パターン生成機構を実装し,閉ループロボット制御を実現するためのフレームワークを提案する。
本研究では,従順な四足歩行ロボットのシミュレーションモデル上で,予め定義された歩行パターン,速度制御,歩行遷移の学習を実演する。
論文 参考訳(メタデータ) (2020-04-09T14:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。