論文の概要: Understanding the Stability of Deep Control Policies for Biped
Locomotion
- arxiv url: http://arxiv.org/abs/2007.15242v1
- Date: Thu, 30 Jul 2020 05:48:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 15:02:18.942425
- Title: Understanding the Stability of Deep Control Policies for Biped
Locomotion
- Title(参考訳): 二足歩行における深度制御の安定性の理解
- Authors: Hwangpil Park, Ri Yu, Yoonsang Lee, Kyungho Lee and Jehee Lee
- Abstract要約: 深層強化学習(DRL)は二足歩行制御ポリシーを構築する一般的な手法として注目されている。
深層制御政策は人間の歩行と同じくらい堅牢か?
歩行安定性を改善するために、ディープポリシーは何を学ぶのか?
- 参考スコア(独自算出の注目度): 9.958881204542818
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Achieving stability and robustness is the primary goal of biped locomotion
control. Recently, deep reinforce learning (DRL) has attracted great attention
as a general methodology for constructing biped control policies and
demonstrated significant improvements over the previous state-of-the-art.
Although deep control policies have advantages over previous controller design
approaches, many questions remain unanswered. Are deep control policies as
robust as human walking? Does simulated walking use similar strategies as human
walking to maintain balance? Does a particular gait pattern similarly affect
human and simulated walking? What do deep policies learn to achieve improved
gait stability? The goal of this study is to answer these questions by
evaluating the push-recovery stability of deep policies compared to human
subjects and a previous feedback controller. We also conducted experiments to
evaluate the effectiveness of variants of DRL algorithms.
- Abstract(参考訳): 安定性とロバスト性の実現は、2足歩行制御の主要な目標である。
近年、二足歩行制御政策を構築するための一般的な方法論として、深層強化学習(DRL)が注目されており、従来の最先端技術よりも大幅に改善されている。
深い制御ポリシーは、以前のコントローラ設計アプローチよりも利点があるが、多くの疑問は未解決のままである。
深層制御政策は人間の歩行と同じくらい堅牢か?
シミュレーション歩行は人間の歩行と同様の戦略を用いてバランスを保つか?
特定の歩行パターンは、人間やシミュレートされた歩行にも同様に影響を及ぼすか?
歩行の安定性を改善するために、ディープポリシーは何を学ぶのか?
本研究の目的は, 深層政策のプッシュ・リカバリ安定性を人体や過去のフィードバックコントローラと比較して評価することで, これらの疑問に答えることである。
また,DRLアルゴリズムの変種の有効性を評価する実験を行った。
関連論文リスト
- Rethinking Robustness Assessment: Adversarial Attacks on Learning-based Quadrupedal Locomotion Controllers [33.50779001548997]
Legged locomotionは最近、機械学習技術の進歩で顕著な成功を収めた。
学習した移動制御器の弱点を識別するために,逐次的敵攻撃を利用する計算手法を提案する。
我々の研究は、最先端のロバストコントローラーでさえ、十分に設計された低マグニチュード逆数列の下では著しく失敗することを示した。
論文 参考訳(メタデータ) (2024-05-21T00:26:11Z) - Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal Locomotion Control [106.32794844077534]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - PID-Inspired Inductive Biases for Deep Reinforcement Learning in
Partially Observable Control Tasks [9.915787487970187]
PIDコントローラの成功を見ると、多くの制御タスクに時間をかけて情報を蓄積するためには、和と差分のみが必要であることが分かる。
PID機能を直接使用するアーキテクチャと、これらのコアアイデアを拡張して任意の制御タスクで使用できるアーキテクチャの2つを提案する。
タスクのトラッキングを超えて、当社のポリシーは従来の最先端メソッドよりも平均1.7倍高いパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2023-07-12T03:42:24Z) - Configuration Path Control [0.0]
本稿では,構成経路の空間における制御ポリシーの安定化手法を提案する。
トレーニング後に適用され、トレーニング中に生成されたデータにのみ依存する。
摂動振幅で測定すると,安定性は2倍から4倍に向上することがわかった。
論文 参考訳(メタデータ) (2022-04-05T20:11:39Z) - Policy Search for Model Predictive Control with Application to Agile
Drone Flight [56.24908013905407]
MPCのためのポリシ・フォー・モデル・予測制御フレームワークを提案する。
具体的には、パラメータ化コントローラとしてMPCを定式化し、パラメータ化の難しい決定変数を高レベルポリシーとして表現する。
シミュレーションと実環境の両方において,我々の制御器が堅牢かつリアルタイムに制御性能を発揮することを示す実験を行った。
論文 参考訳(メタデータ) (2021-12-07T17:39:24Z) - Simplifying Deep Reinforcement Learning via Self-Supervision [51.2400839966489]
自己改善強化学習(Self-Supervised Reinforcement Learning, SSRL)は、純粋に監督された損失を伴うポリシーを最適化する単純なアルゴリズムである。
SSRLは、より安定した性能と実行時間の少ない現代アルゴリズムと驚くほど競合することを示す。
論文 参考訳(メタデータ) (2021-06-10T06:29:59Z) - Reinforcement Learning for Robust Parameterized Locomotion Control of
Bipedal Robots [121.42930679076574]
シミュレーションにおけるロコモーションポリシをトレーニングするためのモデルフリー強化学習フレームワークを提案する。
ドメインランダム化は、システムダイナミクスのバリエーションにまたがる堅牢な振る舞いを学ぶためのポリシーを奨励するために使用されます。
本研究では、目標歩行速度、歩行高さ、旋回ヨーなどの多目的歩行行動について示す。
論文 参考訳(メタデータ) (2021-03-26T07:14:01Z) - RLOC: Terrain-Aware Legged Locomotion using Reinforcement Learning and
Optimal Control [6.669503016190925]
四元計画と制御のためのモデルベースとデータ駆動の統一的アプローチを提案する。
センサ情報と所望のベース速度コマンドを、強化学習ポリシーを用いて足踏み計画にマッピングする。
我々は、複雑な四足歩行システムであるANYmal Bの枠組みを訓練し、再訓練を必要とせず、より大きく重いロボットであるANYmal Cへの移動性を示す。
論文 参考訳(メタデータ) (2020-12-05T18:30:23Z) - Enforcing robust control guarantees within neural network policies [76.00287474159973]
本稿では、ニューラルネットワークによってパラメータ化され、ロバスト制御と同じ証明可能なロバスト性基準を適用した、一般的な非線形制御ポリシークラスを提案する。
提案手法は,複数の領域において有効であり,既存のロバスト制御法よりも平均ケース性能が向上し,(非ロバスト)深部RL法よりも最悪のケース安定性が向上した。
論文 参考訳(メタデータ) (2020-11-16T17:14:59Z) - Robust Deep Reinforcement Learning against Adversarial Perturbations on
State Observations [88.94162416324505]
深部強化学習(DRL)エージェントは、自然な測定誤差や対向雑音を含む観測を通して、その状態を観察する。
観測は真の状態から逸脱するので、エージェントを誤解させ、準最適行動を起こすことができる。
本研究は, 従来の手法を, 対人訓練などの分類タスクの堅牢性向上に応用することは, 多くのRLタスクには有効でないことを示す。
論文 参考訳(メタデータ) (2020-03-19T17:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。