論文の概要: Improving the Performance of Robust Control through Event-Triggered
Learning
- arxiv url: http://arxiv.org/abs/2207.14252v1
- Date: Thu, 28 Jul 2022 17:36:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-29 13:06:40.669385
- Title: Improving the Performance of Robust Control through Event-Triggered
Learning
- Title(参考訳): イベントトリガー学習によるロバスト制御の性能向上
- Authors: Alexander von Rohr, Friedrich Solowjow, Sebastian Trimpe
- Abstract要約: LQR問題における不確実性に直面していつ学習するかを決定するイベントトリガー学習アルゴリズムを提案する。
本研究では,ロバストな制御器ベースライン上での性能向上を数値例で示す。
- 参考スコア(独自算出の注目度): 74.57758188038375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robust controllers ensure stability in feedback loops designed under
uncertainty but at the cost of performance. Model uncertainty in time-invariant
systems can be reduced by recently proposed learning-based methods, thus
improving the performance of robust controllers using data. However, in
practice, many systems also exhibit uncertainty in the form of changes over
time, e.g., due to weight shifts or wear and tear, leading to decreased
performance or instability of the learning-based controller. We propose an
event-triggered learning algorithm that decides when to learn in the face of
uncertainty in the LQR problem with rare or slow changes. Our key idea is to
switch between robust and learned controllers. For learning, we first
approximate the optimal length of the learning phase via Monte-Carlo
estimations using a probabilistic model. We then design a statistical test for
uncertain systems based on the moment-generating function of the LQR cost. The
test detects changes in the system under control and triggers re-learning when
control performance deteriorates due to system changes. We demonstrate improved
performance over a robust controller baseline in a numerical example.
- Abstract(参考訳): ロバストなコントローラは不確実性の下で設計されているが、パフォーマンスのコストがかかるフィードバックループの安定性を保証する。
時間不変システムのモデル不確実性は、最近提案された学習に基づく手法により低減され、データを用いたロバストコントローラの性能が向上する。
しかし実際には、ウェイトシフトや摩耗や裂け目などによって経年変化の形で不確実性を示すシステムが多く、学習ベースの制御器の性能や不安定性が低下する。
本稿では,レアあるいは遅い変化を伴うLQR問題において,不確実性に直面していつ学習するかを決定するイベントトリガー学習アルゴリズムを提案する。
私たちの重要なアイデアは、ロバストと学習したコントローラを切り替えることです。
まず,確率モデルを用いてモンテカルロ推定により学習相の最適長を推定する。
次に,lqrコストのモーメント生成関数に基づいて不確定システムの統計的テストを設計する。
テストは、制御中のシステムの変更を検出し、システム変更による制御性能の劣化時に再学習をトリガーする。
本研究では,ロバストな制御器ベースラインの性能向上を数値例で示す。
関連論文リスト
- Bisimulation metric for Model Predictive Control [44.301098448479195]
Bisimulation Metric for Model Predictive Control (BS-MPC) は、目的関数にbisimulation metric lossを組み込んでエンコーダを直接最適化する新しい手法である。
BS-MPCは、トレーニング時間を削減することにより、トレーニング安定性、入力ノイズに対する堅牢性、および計算効率を向上させる。
我々は,DeepMind Control Suiteから連続制御および画像ベースタスクのBS-MPCを評価する。
論文 参考訳(メタデータ) (2024-10-06T17:12:10Z) - A stabilizing reinforcement learning approach for sampled systems with
partially unknown models [0.0]
純粋オンライン学習環境におけるシステム制御器閉ループの実用的安定性を保証する手法を提案する。
要求された結果を達成するため、我々は古典的な適応制御技術を採用する。
この方法は適応的なトラクション制御とクルーズ制御でテストされ、コストを大幅に削減することが判明した。
論文 参考訳(メタデータ) (2022-08-31T09:20:14Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z) - Comparison of Model Predictive and Reinforcement Learning Methods for
Fault Tolerant Control [2.524528674141466]
階層的強化学習に基づく離散時間系に対する2つの適応型耐故障制御方式を提案する。
実験により、強化学習に基づく制御器は、故障下のモデル予測制御器、部分的に観測可能なシステムモデル、様々なセンサノイズレベルよりも堅牢に動作することが示されている。
論文 参考訳(メタデータ) (2020-08-10T20:22:15Z) - Anticipating the Long-Term Effect of Online Learning in Control [75.6527644813815]
AntLerは、学習を予想する学習ベースの制御法則の設計アルゴリズムである。
AntLer は確率 1 と任意に最適な解を近似することを示す。
論文 参考訳(メタデータ) (2020-07-24T07:00:14Z) - Online Reinforcement Learning Control by Direct Heuristic Dynamic
Programming: from Time-Driven to Event-Driven [80.94390916562179]
時間駆動学習は、新しいデータが到着すると予測モデルのパラメータを継続的に更新する機械学習手法を指す。
ノイズなどの重要なシステムイベントによる時間駆動型dHDPの更新を防止することが望ましい。
イベント駆動型dHDPアルゴリズムは,従来の時間駆動型dHDPと比較して動作することを示す。
論文 参考訳(メタデータ) (2020-06-16T05:51:25Z) - Actor-Critic Reinforcement Learning for Control with Stability Guarantee [9.400585561458712]
強化学習(RL)と深層学習の統合は、様々なロボット制御タスクにおいて印象的なパフォーマンスを達成した。
しかし、データのみを用いることで、モデルフリーなRLでは安定性は保証されない。
本稿では,古典的なリアプノフ法を制御理論に適用することにより,閉ループ安定性を保証できるアクタクリティカルな制御用RLフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-29T16:14:30Z) - Logarithmic Regret Bound in Partially Observable Linear Dynamical
Systems [91.43582419264763]
部分的に観測可能な線形力学系におけるシステム同定と適応制御の問題について検討する。
開ループ系と閉ループ系の両方において有限時間保証付きの最初のモデル推定法を提案する。
AdaptOnは、未知の部分観測可能な線形力学系の適応制御において、$textpolylogleft(Tright)$ regretを達成する最初のアルゴリズムであることを示す。
論文 参考訳(メタデータ) (2020-03-25T06:00:33Z) - Adaptive Control and Regret Minimization in Linear Quadratic Gaussian
(LQG) Setting [91.43582419264763]
我々は不確実性に直面した楽観主義の原理に基づく新しい強化学習アルゴリズムLqgOptを提案する。
LqgOptはシステムのダイナミクスを効率的に探索し、モデルのパラメータを信頼区間まで推定し、最も楽観的なモデルのコントローラをデプロイする。
論文 参考訳(メタデータ) (2020-03-12T19:56:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。