論文の概要: Data-Driven Robust Control Using Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2004.07690v1
- Date: Thu, 16 Apr 2020 14:57:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 21:21:47.182827
- Title: Data-Driven Robust Control Using Reinforcement Learning
- Title(参考訳): 強化学習を用いたデータ駆動ロバスト制御
- Authors: Phuong D. Ngo, Fred Godtliebsen
- Abstract要約: 本稿では,部分未知の力学系を制御するために強化学習を用いた頑健な制御設計法を提案する。
データから学習することで、クローズドループシステムの安定性を保証するアクションが提案される。
1型糖尿病患者に対する血糖モデルを用いたシミュレーションにより, コントロールが評価された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a robust control design method using
reinforcement-learning for controlling partially-unknown dynamical systems
under uncertain conditions. The method extends the optimal
reinforcement-learning algorithm with a new learning technique that is based on
the robust control theory. By learning from the data, the algorithm proposed
actions that guarantees the stability of the closed loop system within the
uncertainties estimated from the data. Control policies are calculated by
solving a set of linear matrix inequalities. The controller was evaluated using
simulations on a blood glucose model for patients with type-1 diabetes.
Simulation results show that the proposed methodology is capable of safely
regulates the blood glucose within a healthy level under the influence of
measurement and process noises. The controller has also significantly reduced
the post-meal fluctuation of the blood glucose. A comparison between the
proposed algorithm and the existing optimal reinforcement learning algorithm
shows the improved robustness of the closed loop system using our method.
- Abstract(参考訳): 本稿では,不確実条件下での部分的未知力学系を制御するための強化学習を用いたロバストな制御設計手法を提案する。
本手法は,ロバスト制御理論に基づく新しい学習手法を用いて,最適強化学習アルゴリズムを拡張する。
データから学習することで、データから推定された不確実性の中で閉ループシステムの安定性を保証するアクションを提案する。
制御ポリシーは、一連の線形行列不等式を解いて計算される。
コントロールは1型糖尿病患者に対する血糖モデルを用いたシミュレーションを用いて評価した。
シミュレーションの結果, 提案手法は測定およびプロセスノイズの影響を受け, 健康なレベルで血糖を安全に調節できることがわかった。
また、コントロールは血糖値の食事後の変動を著しく低減した。
提案アルゴリズムと既存の最適強化学習アルゴリズムとの比較により,本手法による閉ループシステムの堅牢性の向上が示された。
関連論文リスト
- Distributed Robust Learning-Based Backstepping Control Aided with
Neurodynamics for Consensus Formation Tracking of Underwater Vessels [14.660236097277638]
本稿では,複数の水中船のコンセンサス生成追跡のための分散ロバスト学習に基づく制御について述べる。
海洋船舶のシステムパラメータは完全に未知であり、モデリングミスマッチ、海洋障害、騒音にさらされていると推定されている。
論文 参考訳(メタデータ) (2023-08-18T05:45:13Z) - A Priori Denoising Strategies for Sparse Identification of Nonlinear
Dynamical Systems: A Comparative Study [68.8204255655161]
本研究では, 局所的およびグローバルな平滑化手法の性能と, 状態測定値の偏差について検討・比較する。
一般に,測度データセット全体を用いたグローバルな手法は,局所点の周辺に隣接するデータサブセットを用いる局所的手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-01-29T23:31:25Z) - Learning Robust Output Control Barrier Functions from Safe Expert Demonstrations [50.37808220291108]
本稿では,専門家によるデモンストレーションの部分的な観察から,安全な出力フィードバック制御法を考察する。
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Imitation Learning of Stabilizing Policies for Nonlinear Systems [1.52292571922932]
線形システムやコントローラ向けに開発された手法は,平方の和を用いて容易にコントローラに拡張できることが示されている。
予測勾配降下法とアルゴリズムの交互方向法を, 安定化模倣学習問題に対して提案する。
論文 参考訳(メタデータ) (2021-09-22T17:27:19Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z) - The Impact of Data on the Stability of Learning-Based Control- Extended
Version [63.97366815968177]
本稿では,Lyapunovをベースとした,認証制御性能に対するデータの影響の定量化手法を提案する。
ガウス過程を通じて未知系の力学をモデル化することにより、モデルの不確実性と安定性条件の満足度の間の相互関係を決定できる。
論文 参考訳(メタデータ) (2020-11-20T19:10:01Z) - Reinforcement Learning Control of Constrained Dynamic Systems with
Uniformly Ultimate Boundedness Stability Guarantee [12.368097742148128]
強化学習(RL)は複雑な非線形制御問題に対して有望である。
データベースの学習アプローチは、安定性を保証していないことで悪名高い。
本稿では,古典的なリャプノフ法を用いて,データのみに基づいて一様極大境界性安定性(UUB)を解析する。
論文 参考訳(メタデータ) (2020-11-13T12:41:56Z) - Logistic Q-Learning [87.00813469969167]
MDPにおける最適制御の正規化線形プログラミング定式化から導いた新しい強化学習アルゴリズムを提案する。
提案アルゴリズムの主な特徴は,広範に使用されているベルマン誤差の代わりとして理論的に音声として機能する,政策評価のための凸損失関数である。
論文 参考訳(メタデータ) (2020-10-21T17:14:31Z) - Average Cost Optimal Control of Stochastic Systems Using Reinforcement
Learning [0.19036571490366497]
本稿では,Q関数のカーネル行列を推定するオンライン学習手法を提案する。
得られた制御ゲインとカーネルマトリックスは最適に収束することが証明された。
論文 参考訳(メタデータ) (2020-10-13T08:51:06Z) - Model-free optimal control of discrete-time systems with additive and
multiplicative noises [1.656520517245166]
本稿では,加法的および乗法的雑音を受ける離散時間系のクラスに対する最適制御問題について検討する。
システム状態と入力のデータを用いて最適許容制御ポリシーを学習するために,モデルフリー強化学習アルゴリズムを提案する。
学習アルゴリズムは最適許容制御ポリシーに収束することが証明された。
論文 参考訳(メタデータ) (2020-08-20T02:18:00Z) - Anticipating the Long-Term Effect of Online Learning in Control [75.6527644813815]
AntLerは、学習を予想する学習ベースの制御法則の設計アルゴリズムである。
AntLer は確率 1 と任意に最適な解を近似することを示す。
論文 参考訳(メタデータ) (2020-07-24T07:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。