論文の概要: Path Following and Stabilisation of a Bicycle Model using a Reinforcement Learning Approach
- arxiv url: http://arxiv.org/abs/2407.17156v1
- Date: Wed, 24 Jul 2024 10:54:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-25 14:14:00.024528
- Title: Path Following and Stabilisation of a Bicycle Model using a Reinforcement Learning Approach
- Title(参考訳): 強化学習手法を用いた自転車モデルの経路追従と安定化
- Authors: Sebastian Weyrer, Peter Manzl, A. L. Schwab, Johannes Gerstmayr,
- Abstract要約: この研究は、仮想自転車モデルで経路追従を行うためのRLアプローチを導入し、同時に横に安定化させる。
ステアリング角度を出力することによって、自転車モデルの経路追従と安定化を両立させる。
デプロイされたエージェントの性能は、異なる種類のパスと測定値を用いて評価される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Over the years, complex control approaches have been developed to control the motion of a bicycle. Reinforcement Learning (RL), a branch of machine learning, promises easy deployment of so-called agents. Deployed agents are increasingly considered as an alternative to controllers for mechanical systems. The present work introduces an RL approach to do path following with a virtual bicycle model while simultaneously stabilising it laterally. The bicycle, modelled as the Whipple benchmark model and using multibody system dynamics, has no stabilisation aids. The agent succeeds in both path following and stabilisation of the bicycle model exclusively by outputting steering angles, which are converted into steering torques via a PD controller. Curriculum learning is applied as a state-of-the-art training strategy. Different settings for the implemented RL framework are investigated and compared to each other. The performance of the deployed agents is evaluated using different types of paths and measurements. The ability of the deployed agents to do path following and stabilisation of the bicycle model travelling between 2m/s and 7m/s along complex paths including full circles, slalom manoeuvres, and lane changes is demonstrated. Explanatory methods for machine learning are used to analyse the functionality of a deployed agent and link the introduced RL approach with research in the field of bicycle dynamics.
- Abstract(参考訳): 長年にわたり、自転車の動きを制御するための複雑な制御手法が開発されてきた。
マシンラーニングのブランチである強化学習(RL)は、いわゆるエージェントのデプロイを容易にする。
展開エージェントは、機械システムのコントローラに代わるものとして、ますます考えられている。
本研究は、仮想自転車モデルを用いて経路追従を行うためのRLアプローチを導入し、同時に横に安定化させる。
この自転車は、Whippleベンチマークモデルとしてモデル化され、マルチボディシステムのダイナミクスを使用している。
エージェントは、PDコントローラを介してステアリングトルクに変換するステアリング角を出力することによって、自転車モデルの経路追従及び安定化を両立させる。
カリキュラム学習は最先端の訓練戦略として応用される。
実装されたRLフレームワークの異なる設定について検討し、比較した。
デプロイされたエージェントの性能は、異なる種類のパスと測定値を用いて評価される。
展開エージェントが2m/sから7m/sの間を走行する自転車モデルの経路追従と安定化を行う能力は、全円、スラローム運動、車線変化を含む複雑な経路に沿って行われる。
機械学習のための説明的手法は、デプロイされたエージェントの機能を分析し、導入したRLアプローチと自転車力学の分野の研究を結びつけるために用いられる。
関連論文リスト
- A Scalable and Parallelizable Digital Twin Framework for Sustainable Sim2Real Transition of Multi-Agent Reinforcement Learning Systems [1.0582505915332336]
本研究は,並列化トレーニングワークロードをオンデマンドで選択的にスケール可能な,持続可能なマルチエージェント深層強化学習フレームワークを提案する。
我々は,AutoDRIVEエコシステムを,シミュレーションから現実への競争力のあるマルチエージェント強化学習ポリシと同様に,デジタルツインフレームワークによる協調の訓練,展開,転送を可能にするものとして紹介する。
論文 参考訳(メタデータ) (2024-03-16T18:47:04Z) - Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal
Locomotion Control [112.66677641636299]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - Multi-Agent Deep Reinforcement Learning for Cooperative and Competitive
Autonomous Vehicles using AutoDRIVE Ecosystem [1.1893676124374688]
我々は、ニジェールとF1TENTHの物理的に正確でグラフィカルなデジタル双対を開発するために、AutoDRIVE Ecosystemを導入する。
まず,複数エージェントの学習環境だけでなく,限られた状態情報を相互に共有する一組の協調車両(Nigel)を用いた交差点問題について検討する。
次に、異なる車両群(F1TENTH)を用いて、個別のポリシーアプローチを用いたマルチエージェント学習環境において、対向的なヘッドツーヘッド自律レース問題を調査する。
論文 参考訳(メタデータ) (2023-09-18T02:43:59Z) - Tuning Path Tracking Controllers for Autonomous Cars Using Reinforcement
Learning [0.0]
本稿では,自動運転車のための強化学習(Reinforcement Learning, RL)に基づく適応経路追跡制御システムを提案する。
トラッカーのチューニングは、学習されたQラーニングアルゴリズムを用いて、横方向および操舵軌道誤差を最小化する。
論文 参考訳(メタデータ) (2023-01-09T14:17:12Z) - NeurIPS 2022 Competition: Driving SMARTS [60.948652154552136]
ドライビングSMARTSは、動的相互作用コンテキストにおける分散シフトに起因する問題に対処するために設計された定期的な競争である。
提案するコンペティションは,強化学習(RL)やオフライン学習など,方法論的に多様なソリューションをサポートする。
論文 参考訳(メタデータ) (2022-11-14T17:10:53Z) - Unified Automatic Control of Vehicular Systems with Reinforcement
Learning [64.63619662693068]
本稿では,車載マイクロシミュレーションの合理化手法について述べる。
最小限の手動設計で高性能な制御戦略を発見する。
この研究は、波動緩和、交通信号、ランプ計測に類似した多くの創発的挙動を明らかにしている。
論文 参考訳(メタデータ) (2022-07-30T16:23:45Z) - Training and Evaluation of Deep Policies using Reinforcement Learning
and Generative Models [67.78935378952146]
GenRLはシーケンシャルな意思決定問題を解決するためのフレームワークである。
強化学習と潜在変数生成モデルの組み合わせを利用する。
最終方針訓練の性能に最も影響を与える生成モデルの特徴を実験的に決定する。
論文 参考訳(メタデータ) (2022-04-18T22:02:32Z) - Learning to drive from a world on rails [78.28647825246472]
モデルベースアプローチによって,事前記録された運転ログからインタラクティブな視覚ベースの運転方針を学習する。
世界の前方モデルは、あらゆる潜在的な運転経路の結果を予測する運転政策を監督する。
提案手法は,carla リーダボードにまずランク付けし,40 倍少ないデータを用いて25%高い運転スコアを得た。
論文 参考訳(メタデータ) (2021-05-03T05:55:30Z) - Dynamic Bicycle Dispatching of Dockless Public Bicycle-sharing Systems
using Multi-objective Reinforcement Learning [79.61517670541863]
ドッキングレスPBS(DL-PBS)に欠かせない動的自転車レンタル需要に基づく効率的な自転車配車ソリューションを実現するためのAIの活用
DL-PBSに最適な自転車ディスパッチソリューションを提供するために、マルチオブジェクト強化学習(MORL-BD)に基づく動的自転車ディスパッチアルゴリズムを提案します。
論文 参考訳(メタデータ) (2021-01-19T03:09:51Z) - RLOC: Terrain-Aware Legged Locomotion using Reinforcement Learning and
Optimal Control [6.669503016190925]
四元計画と制御のためのモデルベースとデータ駆動の統一的アプローチを提案する。
センサ情報と所望のベース速度コマンドを、強化学習ポリシーを用いて足踏み計画にマッピングする。
我々は、複雑な四足歩行システムであるANYmal Bの枠組みを訓練し、再訓練を必要とせず、より大きく重いロボットであるANYmal Cへの移動性を示す。
論文 参考訳(メタデータ) (2020-12-05T18:30:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。