論文の概要: Safe Chance Constrained Reinforcement Learning for Batch Process Control
- arxiv url: http://arxiv.org/abs/2104.11706v1
- Date: Fri, 23 Apr 2021 16:48:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 13:45:45.988104
- Title: Safe Chance Constrained Reinforcement Learning for Batch Process Control
- Title(参考訳): バッチプロセス制御のためのセーフチャンス制約強化学習
- Authors: Max Mowbray, Panagiotis Petsagkourakis, Ehecatl Antonio del R\'io
Chanona, Robin Smith, Dongda Zhang
- Abstract要約: 強化学習(RL)コントローラは,コントロールコミュニティ内で興奮を引き起こしている。
エンジニアリングアプリケーションに関する最近の焦点は、安全なRLコントローラの開発に向けられている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reinforcement Learning (RL) controllers have generated excitement within the
control community. The primary advantage of RL controllers relative to existing
methods is their ability to optimize uncertain systems independently of
explicit assumption of process uncertainty. Recent focus on engineering
applications has been directed towards the development of safe RL controllers.
Previous works have proposed approaches to account for constraint satisfaction
through constraint tightening from the domain of stochastic model predictive
control. Here, we extend these approaches to account for plant-model mismatch.
Specifically, we propose a data-driven approach that utilizes Gaussian
processes for the offline simulation model and use the associated posterior
uncertainty prediction to account for joint chance constraints and plant-model
mismatch. The method is benchmarked against nonlinear model predictive control
via case studies. The results demonstrate the ability of the methodology to
account for process uncertainty, enabling satisfaction of joint chance
constraints even in the presence of plant-model mismatch.
- Abstract(参考訳): 強化学習(RL)コントローラは,コントロールコミュニティ内で興奮を引き起こしている。
既存の手法に対するRLコントローラの主な利点は、プロセスの不確実性の明確な仮定とは無関係に不確実なシステムを最適化する能力である。
近年のエンジニアリングアプリケーションへの注目は、安全なrlコントローラの開発に向けられている。
従来の研究では、確率モデル予測制御の領域からの制約強化による制約満足度を考慮に入れたアプローチが提案されている。
ここでは、これらのアプローチを植物モデルミスマッチを考慮して拡張する。
具体的には、オフラインシミュレーションモデルにガウス過程を利用するデータ駆動手法を提案し、関連する後続不確実性予測を用いて、共同確率制約とプラントモデルミスマッチを考慮する。
この手法はケーススタディによる非線形モデル予測制御に対してベンチマークされる。
その結果,プラントモデルミスマッチの存在下においても,プロセスの不確実性を考慮し,共同確率制約の満足度を高める方法が示された。
関連論文リスト
- Forking Uncertainties: Reliable Prediction and Model Predictive Control
with Sequence Models via Conformal Risk Control [40.918012779935246]
本稿では,事前設計した確率予測器が生成した予測に基づいて,信頼性の高いエラーバーを生成する,新しいポストホックキャリブレーション手法を提案する。
最先端技術とは異なり、PTS-CRCはカバレッジ以上の信頼性定義を満たすことができる。
PTS-CRC予測と制御の性能を,無線ネットワークの文脈における多くのユースケースの研究により実験的に検証した。
論文 参考訳(メタデータ) (2023-10-16T11:35:41Z) - Model Predictive Control with Gaussian-Process-Supported Dynamical
Constraints for Autonomous Vehicles [82.65261980827594]
本研究では、学習したガウス過程を利用して人間の運転行動を予測する自動運転車のモデル予測制御手法を提案する。
マルチモード予測制御アプローチは、人間のドライバーの意図を考察する。
論文 参考訳(メタデータ) (2023-03-08T17:14:57Z) - Error-based Knockoffs Inference for Controlled Feature Selection [49.99321384855201]
本手法では, ノックオフ特徴量, エラーベース特徴重要度統計量, ステップダウン手順を一体化して, エラーベースのノックオフ推定手法を提案する。
提案手法では回帰モデルを指定する必要はなく,理論的保証で特徴選択を処理できる。
論文 参考訳(メタデータ) (2022-03-09T01:55:59Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z) - Constrained Model-Free Reinforcement Learning for Process Optimization [0.0]
強化学習(Reinforcement Learning, RL)は、非線形最適制御問題を扱うための制御手法である。
展示された約束にもかかわらず、RLは産業的な実践への顕著な翻訳をまだ見ていない。
確率の高い共同確率制約の満足度を保証できる「オークル」支援型制約付きQ-ラーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-16T13:16:22Z) - Gaussian Process-based Min-norm Stabilizing Controller for
Control-Affine Systems with Uncertain Input Effects and Dynamics [90.81186513537777]
本稿では,この問題の制御・アフィン特性を捉えた新しい化合物カーネルを提案する。
この結果の最適化問題は凸であることを示し、ガウス過程に基づく制御リャプノフ関数第二次コーンプログラム(GP-CLF-SOCP)と呼ぶ。
論文 参考訳(メタデータ) (2020-11-14T01:27:32Z) - Constrained Model-based Reinforcement Learning with Robust Cross-Entropy
Method [30.407700996710023]
本稿では,制約違反に対するスパースインジケータ信号を用いた制約/安全強化学習問題について検討する。
本稿では,ニューラルネットワークアンサンブルモデルを用いて予測の不確実性を推定し,モデル予測制御を基本制御フレームワークとして利用する。
その結果,本手法は現状のベースラインよりもはるかに少ない制約違反数でタスクを完了させることが判明した。
論文 参考訳(メタデータ) (2020-10-15T18:19:35Z) - Control as Hybrid Inference [62.997667081978825]
本稿では、反復推論と償却推論のバランスを自然に仲介するCHIの実装について述べる。
連続的な制御ベンチマークでアルゴリズムのスケーラビリティを検証し、強力なモデルフリーおよびモデルベースラインを上回る性能を示す。
論文 参考訳(メタデータ) (2020-07-11T19:44:09Z) - Reinforcement Learning for Safety-Critical Control under Model
Uncertainty, using Control Lyapunov Functions and Control Barrier Functions [96.63967125746747]
強化学習フレームワークは、CBFおよびCLF制約に存在するモデル不確実性を学ぶ。
RL-CBF-CLF-QPは、安全制約におけるモデル不確実性の問題に対処する。
論文 参考訳(メタデータ) (2020-04-16T10:51:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。