論文の概要: Optimal PID and Antiwindup Control Design as a Reinforcement Learning
Problem
- arxiv url: http://arxiv.org/abs/2005.04539v1
- Date: Sun, 10 May 2020 01:05:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 02:13:21.049434
- Title: Optimal PID and Antiwindup Control Design as a Reinforcement Learning
Problem
- Title(参考訳): 強化学習問題としての最適PIDとアンチワインドアップ制御設計
- Authors: Nathan P. Lawrence, Gregory E. Stewart, Philip D. Loewen, Michael G.
Forbes, Johan U. Backstrom, R. Bhushan Gopaluni
- Abstract要約: DRL制御法の解釈可能性に着目した。
特に、線形固定構造コントローラをアクター・クリティカル・フレームワークに埋め込まれた浅層ニューラルネットワークとみなす。
- 参考スコア(独自算出の注目度): 3.131740922192114
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep reinforcement learning (DRL) has seen several successful applications to
process control. Common methods rely on a deep neural network structure to
model the controller or process. With increasingly complicated control
structures, the closed-loop stability of such methods becomes less clear. In
this work, we focus on the interpretability of DRL control methods. In
particular, we view linear fixed-structure controllers as shallow neural
networks embedded in the actor-critic framework. PID controllers guide our
development due to their simplicity and acceptance in industrial practice. We
then consider input saturation, leading to a simple nonlinear control
structure. In order to effectively operate within the actuator limits we then
incorporate a tuning parameter for anti-windup compensation. Finally, the
simplicity of the controller allows for straightforward initialization. This
makes our method inherently stabilizing, both during and after training, and
amenable to known operational PID gains.
- Abstract(参考訳): 深部強化学習(DRL)はプロセス制御にいくつかの成功例がある。
一般的な方法は、コントローラやプロセスをモデル化するためにディープニューラルネットワーク構造に依存する。
制御構造が複雑化するにつれて、そのような方法の閉ループ安定性はより明確になる。
本研究では,DRL制御手法の解釈可能性に着目した。
特に、線形固定構造コントローラをアクター・クリティカル・フレームワークに埋め込まれた浅いニューラルネットワークと見なす。
PIDコントローラは、そのシンプルさと産業実践の受容により、私たちの開発をガイドします。
次に入力飽和を考慮し、単純な非線形制御構造へと導く。
アクチュエータのリミット内で効果的に動作するために, 逆巻補正のためのチューニングパラメータを組み込む。
最後に、コントローラの単純さは、簡単な初期化を可能にします。
これにより,本手法は,トレーニング中と後の両方で本質的に安定化し,既知のPIDゲインに適応できる。
関連論文リスト
- Growing Q-Networks: Solving Continuous Control Tasks with Adaptive Control Resolution [51.83951489847344]
ロボット工学の応用において、スムーズな制御信号はシステム摩耗とエネルギー効率を減らすために一般的に好まれる。
本研究では,離散的な動作空間を粗い状態から細かい制御分解能まで拡大することにより,この性能ギャップを埋めることを目的とする。
我々の研究は、値分解とアダプティブ・コントロール・リゾリューションが組み合わさることで、単純な批判のみのアルゴリズムが得られ、連続制御タスクにおいて驚くほど高い性能が得られることを示唆している。
論文 参考訳(メタデータ) (2024-04-05T17:58:37Z) - ReACT: Reinforcement Learning for Controller Parametrization using
B-Spline Geometries [0.0]
本研究は,N次元B-スプライン測地(BSG)を用いた深部強化学習(DRL)を用いた新しいアプローチを提案する。
本稿では,操作条件に依存する複雑な振る舞いを持つシステムのクラスであるパラメータ変量システムの制御に焦点をあてる。
多数の動作条件に依存するコントローラパラメータをマッピングするために,BSGを導入し,適応処理をより効率的にする。
論文 参考訳(メタデータ) (2024-01-10T16:27:30Z) - Real-Time Model-Free Deep Reinforcement Learning for Force Control of a
Series Elastic Actuator [56.11574814802912]
最先端のロボットアプリケーションは、歩行、揚力、操作などの複雑なタスクを達成するために、閉ループ力制御を備えた連続弾性アクチュエータ(SEAs)を使用する。
モデルフリーPID制御法はSEAの非線形性により不安定になりやすい。
深層強化学習は連続制御タスクに有効なモデルレス手法であることが証明されている。
論文 参考訳(メタデータ) (2023-04-11T00:51:47Z) - Performance-Driven Controller Tuning via Derivative-Free Reinforcement
Learning [6.5158195776494]
我々は,新しい微分自由強化学習フレームワークを用いて,制御器のチューニング問題に取り組む。
我々は,PIDコントローラを用いた適応走行制御とMPCコントローラを用いた軌道追跡という,自律走行による2つの具体例に関する数値実験を行った。
実験の結果,提案手法は一般的なベースラインよりも優れており,コントローラチューニングの強い可能性を強調している。
論文 参考訳(メタデータ) (2022-09-11T13:01:14Z) - Improving the Performance of Robust Control through Event-Triggered
Learning [74.57758188038375]
LQR問題における不確実性に直面していつ学習するかを決定するイベントトリガー学習アルゴリズムを提案する。
本研究では,ロバストな制御器ベースライン上での性能向上を数値例で示す。
論文 参考訳(メタデータ) (2022-07-28T17:36:37Z) - Steady-State Error Compensation in Reference Tracking and Disturbance
Rejection Problems for Reinforcement Learning-Based Control [0.9023847175654602]
強化学習(Reinforcement Learning, RL)は、自動制御アプリケーションにおける将来的なトピックである。
アクター批判に基づくRLコントローラのためのイニシアティブアクション状態拡張(IASA)が導入される。
この拡張は専門家の知識を必要とせず、アプローチモデルを無償にしておく。
論文 参考訳(メタデータ) (2022-01-31T16:29:19Z) - Deep Reinforcement Learning with Shallow Controllers: An Experimental
Application to PID Tuning [3.9146761527401424]
実際の物理システム上での最先端RLアルゴリズムの実現における課題について述べる。
私たちのアプローチの核心は、トレーニング可能なRLポリシーとしてPIDコントローラを使用することです。
論文 参考訳(メタデータ) (2021-11-13T18:48:28Z) - Regularizing Action Policies for Smooth Control with Reinforcement
Learning [47.312768123967025]
Conditioning for Action Policy Smoothness(CAPS)は、アクションポリシーの効果的な直感的な正規化である。
capsは、ニューラルネットワークコントローラの学習状態-動作マッピングの滑らかさを一貫して改善する。
実システムでテストしたところ、クアドロタードローンのコントローラーの滑らかさが改善され、消費電力は80%近く削減された。
論文 参考訳(メタデータ) (2020-12-11T21:35:24Z) - Enforcing robust control guarantees within neural network policies [76.00287474159973]
本稿では、ニューラルネットワークによってパラメータ化され、ロバスト制御と同じ証明可能なロバスト性基準を適用した、一般的な非線形制御ポリシークラスを提案する。
提案手法は,複数の領域において有効であり,既存のロバスト制御法よりも平均ケース性能が向上し,(非ロバスト)深部RL法よりも最悪のケース安定性が向上した。
論文 参考訳(メタデータ) (2020-11-16T17:14:59Z) - Learning a Contact-Adaptive Controller for Robust, Efficient Legged
Locomotion [95.1825179206694]
四足歩行ロボットのためのロバストコントローラを合成するフレームワークを提案する。
高レベルコントローラは、環境の変化に応じてプリミティブのセットを選択することを学習する。
確立された制御方法を使用してプリミティブを堅牢に実行する低レベルコントローラ。
論文 参考訳(メタデータ) (2020-09-21T16:49:26Z) - Reinforcement Learning based Design of Linear Fixed Structure
Controllers [3.131740922192114]
線形固定構造制御器をチューニングするために,ランダム探索に基づく単純な有限差分法を提案する。
本アルゴリズムは,システムの全閉ループステップ応答で動作し,所望の閉ループ応答に対するPIDゲインを反復的に改善する。
論文 参考訳(メタデータ) (2020-05-10T00:53:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。