論文の概要: A Learning-Based Tune-Free Control Framework for Large Scale Autonomous
Driving System Deployment
- arxiv url: http://arxiv.org/abs/2011.04250v1
- Date: Mon, 9 Nov 2020 08:54:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 02:38:21.663204
- Title: A Learning-Based Tune-Free Control Framework for Large Scale Autonomous
Driving System Deployment
- Title(参考訳): 大規模自動運転システム展開のための学習型チューンフリー制御フレームワーク
- Authors: Yu Wang, Shu Jiang, Weiman Lin, Yu Cao, Longtao Lin, Jiangtao Hu,
Jinghao Miao and Qi Luo
- Abstract要約: このフレームワークは、自律運転のための制御パラメータチューニングを共同で自動化する3つの機械学習ベースの手順で構成されている。
シミュレーションと道路試験の両方において,パラメータ調整効率が大幅に向上し,制御性能が向上したことを示す。
- 参考スコア(独自算出の注目度): 5.296964852594282
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents the design of a tune-free (human-out-of-the-loop
parameter tuning) control framework, aiming at accelerating large scale
autonomous driving system deployed on various vehicles and driving
environments. The framework consists of three machine-learning-based
procedures, which jointly automate the control parameter tuning for autonomous
driving, including: a learning-based dynamic modeling procedure, to enable the
control-in-the-loop simulation with highly accurate vehicle dynamics for
parameter tuning; a learning-based open-loop mapping procedure, to solve the
feedforward control parameters tuning; and more significantly, a
Bayesian-optimization-based closed-loop parameter tuning procedure, to
automatically tune feedback control (PID, LQR, MRAC, MPC, etc.) parameters in
simulation environment. The paper shows an improvement in control performance
with a significant increase in parameter tuning efficiency, in both simulation
and road tests. This framework has been validated on different vehicles in US
and China.
- Abstract(参考訳): 本稿では,様々な車両や運転環境に展開する大規模自律走行システムの高速化を目的とした,チューニング不要な制御フレームワークの設計について述べる。
The framework consists of three machine-learning-based procedures, which jointly automate the control parameter tuning for autonomous driving, including: a learning-based dynamic modeling procedure, to enable the control-in-the-loop simulation with highly accurate vehicle dynamics for parameter tuning; a learning-based open-loop mapping procedure, to solve the feedforward control parameters tuning; and more significantly, a Bayesian-optimization-based closed-loop parameter tuning procedure, to automatically tune feedback control (PID, LQR, MRAC, MPC, etc.) parameters in simulation environment.
シミュレーションと道路試験の両方において,パラメータ調整効率が大幅に向上し,制御性能が向上したことを示す。
この枠組みは米国と中国の異なる車両で検証されている。
関連論文リスト
- A Tricycle Model to Accurately Control an Autonomous Racecar with Locked
Differential [71.53284767149685]
自動オープンホイールレースカーの側面力学に対するロックディファレンシャルの影響をモデル化するための新しい定式化を提案する。
本稿では,マイクロステップの離散化手法を用いて,動的に線形化し,実時間実装に適した予測を行う。
論文 参考訳(メタデータ) (2023-12-22T16:29:55Z) - An Automatic Tuning MPC with Application to Ecological Cruise Control [0.0]
本稿では,MPCコントローラのオンライン自動チューニングへのアプローチと,エコロジークルーズ制御システムへの例を示す。
我々は、動的プログラミングを用いて、グローバルな燃費最小化問題をオフラインで解決し、対応するMPCコスト関数を求める。
これらのオフライン結果に適合したニューラルネットワークを用いて、オンライン操作中に所望のMPCコスト関数重みを生成する。
論文 参考訳(メタデータ) (2023-09-17T19:49:47Z) - Tuning Legged Locomotion Controllers via Safe Bayesian Optimization [47.87675010450171]
本稿では,ロボットハードウェアプラットフォームにおけるモデルベースコントローラの展開を効率化するための,データ駆動型戦略を提案する。
モデルフリーな安全な学習アルゴリズムを用いて制御ゲインのチューニングを自動化し、制御定式化で使用される単純化されたモデルと実システムとのミスマッチに対処する。
論文 参考訳(メタデータ) (2023-06-12T13:10:14Z) - AutoRL Hyperparameter Landscapes [69.15927869840918]
強化学習(Reinforcement Learning, RL)は印象的な結果を生み出すことができるが、その使用はハイパーパラメータがパフォーマンスに与える影響によって制限されている。
我々は,これらのハイパーパラメータの景観を1つの時間だけではなく,複数の時間内に構築し,解析する手法を提案する。
これは、ハイパーパラメータがトレーニング中に動的に調整されるべきであるという理論を支持し、ランドスケープ解析によって得られるAutoRL問題に関するさらなる洞察の可能性を示している。
論文 参考訳(メタデータ) (2023-04-05T12:14:41Z) - Performance-Driven Controller Tuning via Derivative-Free Reinforcement
Learning [6.5158195776494]
我々は,新しい微分自由強化学習フレームワークを用いて,制御器のチューニング問題に取り組む。
我々は,PIDコントローラを用いた適応走行制御とMPCコントローラを用いた軌道追跡という,自律走行による2つの具体例に関する数値実験を行った。
実験の結果,提案手法は一般的なベースラインよりも優れており,コントローラチューニングの強い可能性を強調している。
論文 参考訳(メタデータ) (2022-09-11T13:01:14Z) - Unified Automatic Control of Vehicular Systems with Reinforcement
Learning [64.63619662693068]
本稿では,車載マイクロシミュレーションの合理化手法について述べる。
最小限の手動設計で高性能な制御戦略を発見する。
この研究は、波動緩和、交通信号、ランプ計測に類似した多くの創発的挙動を明らかにしている。
論文 参考訳(メタデータ) (2022-07-30T16:23:45Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - Bayesian Optimization Meets Hybrid Zero Dynamics: Safe Parameter
Learning for Bipedal Locomotion Control [17.37169551675587]
両足歩行ロボットの移動制御のためのマルチドメイン制御パラメータ学習フレームワークを提案する。
BOを利用して、HZDベースのコントローラで使用される制御パラメータを学習する。
次に、物理ロボットに学習プロセスを適用し、シミュレーションで学習した制御パラメータの修正を学習する。
論文 参考訳(メタデータ) (2022-03-04T20:48:17Z) - Policy Search for Model Predictive Control with Application to Agile
Drone Flight [56.24908013905407]
MPCのためのポリシ・フォー・モデル・予測制御フレームワークを提案する。
具体的には、パラメータ化コントローラとしてMPCを定式化し、パラメータ化の難しい決定変数を高レベルポリシーとして表現する。
シミュレーションと実環境の両方において,我々の制御器が堅牢かつリアルタイムに制御性能を発揮することを示す実験を行った。
論文 参考訳(メタデータ) (2021-12-07T17:39:24Z) - Automated Controller Calibration by Kalman Filtering [2.2237337682863125]
提案手法は広範囲のコントローラに適用可能である。
この方法は、オンラインで堅牢にパラメータをチューニングし、計算効率が高く、データストレージの要件が低く、実装が容易である。
高忠実度車両シミュレータCarSimによるシミュレーション研究により、複雑な力学系のコントローラをオンラインで校正できることが示されている。
論文 参考訳(メタデータ) (2021-11-21T14:57:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。