論文の概要: RL + Model-based Control: Using On-demand Optimal Control to Learn
Versatile Legged Locomotion
- arxiv url: http://arxiv.org/abs/2305.17842v2
- Date: Wed, 21 Jun 2023 10:38:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 17:04:15.485685
- Title: RL + Model-based Control: Using On-demand Optimal Control to Learn
Versatile Legged Locomotion
- Title(参考訳): rl + model-based control: オンデマンド最適制御を用いた多目的歩行学習
- Authors: Dongho Kang, Jin Cheng, Miguel Zamora, Fatemeh Zargarbashi, Stelian
Coros
- Abstract要約: モデルに基づく最適制御と強化学習を組み合わせた制御フレームワークを提案する。
提案手法は,オンデマンド参照動作を取り入れたRLトレーニングプロセスを強化する。
フレームワーク内でのRLトレーニングプロセスの堅牢性と制御性を示す。
- 参考スコア(独自算出の注目度): 20.289248652275404
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This letter presents a control framework that combines model-based optimal
control and reinforcement learning (RL) to achieve versatile and robust legged
locomotion. Our approach enhances the RL training process by incorporating
on-demand reference motions generated through finite-horizon optimal control,
covering a broad range of velocities and gaits. These reference motions serve
as targets for the RL policy to imitate, resulting in the development of robust
control policies that can be learned efficiently and reliably. Moreover, by
considering whole-body dynamics, RL overcomes the inherent limitations of
modelling simplifications. Through simulation and hardware experiments, we
demonstrate the robustness and controllability of the RL training process
within our framework. Furthermore, our method demonstrates the ability to
generalize reference motions and handle more complex locomotion tasks that may
pose challenges for the simplified model, leveraging the flexibility of RL.
- Abstract(参考訳): このレターは,モデルベース最適制御と強化学習(rl)を組み合わせた多目的かつロコモーションを実現するための制御フレームワークを提案する。
提案手法は,有限水平最適制御により発生するオンデマンド参照運動を取り入れ,幅広い速度と歩行をカバーし,RLトレーニングプロセスを強化する。
これらの参照動作は、RLポリシーを模倣するターゲットとなり、効率的にかつ確実に学習できる堅牢な制御ポリシーの開発につながる。
さらに、全身のダイナミクスを考慮することで、RLはモデリングの単純化の本質的な限界を克服する。
シミュレーションおよびハードウェア実験により,本フレームワークにおけるRLトレーニングプロセスの堅牢性と制御性を示す。
さらに,提案手法は参照動作を一般化し,より複雑な移動タスクを処理し,RLの柔軟性を活かした簡易モデルの課題を提起する。
関連論文リスト
- Large Language Model-Enhanced Reinforcement Learning for Generic Bus Holding Control Strategies [12.599164162404994]
本研究では,Large Language Models(LLMs)の文脈内学習と推論機能を活用した自動報酬生成パラダイムを提案する。
提案するLLM拡張RLパラダイムの実現可能性を評価するため,合成単線システムや実世界の多線システムなど,様々なバス保持制御シナリオに適用した。
論文 参考訳(メタデータ) (2024-10-14T07:10:16Z) - Traffic expertise meets residual RL: Knowledge-informed model-based residual reinforcement learning for CAV trajectory control [1.5361702135159845]
本稿では,知識インフォームドモデルに基づく残留強化学習フレームワークを提案する。
交通専門家の知識を仮想環境モデルに統合し、基本力学にIntelligent Driver Model(IDM)、残留力学にニューラルネットワークを使用する。
本稿では,従来の制御手法を残差RLと組み合わせて,スクラッチから学習することなく,効率的な学習と政策最適化を容易にする新しい戦略を提案する。
論文 参考訳(メタデータ) (2024-08-30T16:16:57Z) - Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal Locomotion Control [106.32794844077534]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - Learning Exactly Linearizable Deep Dynamics Models [0.07366405857677226]
本稿では, 安定度, 信頼性, 信頼性を確保するために, 様々な制御理論を容易に適用可能な, 線形化可能な動的モデルの学習法を提案する。
提案手法は, 自動車エンジンのリアルタイム制御に応用され, 予測性能と制約下での安定制御が良好であることを示す。
論文 参考訳(メタデータ) (2023-11-30T05:40:55Z) - Grow Your Limits: Continuous Improvement with Real-World RL for Robotic
Locomotion [66.69666636971922]
本稿では,ロボットの学習過程における探索を調節するポリシー正規化フレームワークであるAPRLを提案する。
APRLは四足歩行ロボットを、数分で完全に現実世界を歩けるように効率よく学習する。
論文 参考訳(メタデータ) (2023-10-26T17:51:46Z) - On Transforming Reinforcement Learning by Transformer: The Development
Trajectory [97.79247023389445]
Transformerは元々自然言語処理用に開発されたもので、コンピュータビジョンでも大きな成功を収めている。
既存の開発をアーキテクチャ拡張と軌道最適化の2つのカテゴリに分類する。
ロボット操作,テキストベースのゲーム,ナビゲーション,自律運転におけるTRLの主な応用について検討する。
論文 参考訳(メタデータ) (2022-12-29T03:15:59Z) - Reinforcement Learning for Robust Parameterized Locomotion Control of
Bipedal Robots [121.42930679076574]
シミュレーションにおけるロコモーションポリシをトレーニングするためのモデルフリー強化学習フレームワークを提案する。
ドメインランダム化は、システムダイナミクスのバリエーションにまたがる堅牢な振る舞いを学ぶためのポリシーを奨励するために使用されます。
本研究では、目標歩行速度、歩行高さ、旋回ヨーなどの多目的歩行行動について示す。
論文 参考訳(メタデータ) (2021-03-26T07:14:01Z) - RL-Controller: a reinforcement learning framework for active structural
control [0.0]
フレキシブルでスケーラブルなシミュレーション環境であるRL-Controllerを導入することで,アクティブコントローラを設計するための新しいRLベースのアプローチを提案する。
提案するフレームワークは,5階建てのベンチマークビルディングに対して,平均65%の削減率で,容易に学習可能であることを示す。
LQG 能動制御法との比較研究において,提案したモデルフリーアルゴリズムはより最適なアクチュエータ強制戦略を学習することを示した。
論文 参考訳(メタデータ) (2021-03-13T04:42:13Z) - Guided Constrained Policy Optimization for Dynamic Quadrupedal Robot
Locomotion [78.46388769788405]
我々は,制約付きポリシー最適化(CPPO)の実装に基づくRLフレームワークであるGCPOを紹介する。
誘導制約付きRLは所望の最適値に近い高速収束を実現し,正確な報酬関数チューニングを必要とせず,最適かつ物理的に実現可能なロボット制御動作を実現することを示す。
論文 参考訳(メタデータ) (2020-02-22T10:15:53Z) - Information Theoretic Model Predictive Q-Learning [64.74041985237105]
本稿では,情報理論的MPCとエントロピー正規化RLとの新たな理論的関連性を示す。
バイアスモデルを利用したQ-ラーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2019-12-31T00:29:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。