論文の概要: Aiding reinforcement learning for set point control
- arxiv url: http://arxiv.org/abs/2304.10289v1
- Date: Thu, 20 Apr 2023 13:12:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 13:12:17.457159
- Title: Aiding reinforcement learning for set point control
- Title(参考訳): 集合点制御のための強化学習支援
- Authors: Ruoqi Zhang, Per Mattsson, Torbj\"orn Wigren
- Abstract要約: 本論文は,簡単な誘導フィードバック制御による強化学習の強化に寄与する。
提案手法をシミュレーションおよび実世界のダブルタンクプロセスで評価し,有望な結果を得た。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While reinforcement learning has made great improvements, state-of-the-art
algorithms can still struggle with seemingly simple set-point feedback control
problems. One reason for this is that the learned controller may not be able to
excite the system dynamics well enough initially, and therefore it can take a
long time to get data that is informative enough to learn for good control. The
paper contributes by augmentation of reinforcement learning with a simple
guiding feedback controller, for example, a proportional controller. The key
advantage in set point control is a much improved excitation that improves the
convergence properties of the reinforcement learning controller significantly.
This can be very important in real-world control where quick and accurate
convergence is needed. The proposed method is evaluated with simulation and on
a real-world double tank process with promising results.
- Abstract(参考訳): 強化学習は大幅に改善されているが、最先端のアルゴリズムは一見単純なセットポイントフィードバック制御の問題に苦戦している。
この理由の1つは、学習したコントローラが最初にシステムダイナミクスを十分にエキサイティングできないため、適切な制御のために十分な情報を得るのに長い時間がかかる可能性があるためである。
本論文は,単純な誘導フィードバックコントローラ,例えば比例制御器を用いた強化学習の強化に寄与する。
セットポイント制御における鍵となる利点は、強化学習制御器の収束特性を大幅に改善する大幅に改善された励起である。
これは、迅速かつ正確な収束が必要な実世界の制御において非常に重要である。
提案手法をシミュレーションおよび実世界のダブルタンクプロセスで評価し,有望な結果を得た。
関連論文リスト
- ConcertoRL: An Innovative Time-Interleaved Reinforcement Learning Approach for Enhanced Control in Direct-Drive Tandem-Wing Vehicles [7.121362365269696]
制御精度を向上し,オンライントレーニングプロセスの安定化を図るために,ConsoleoRLアルゴリズムを導入する。
試行では、強化学習の強化なしでシナリオよりも約70%パフォーマンスが大幅に向上した。
結果は、アルゴリズムがその部分の総和を超える相乗効果を生み出す能力を強調している。
論文 参考訳(メタデータ) (2024-05-22T13:53:10Z) - Growing Q-Networks: Solving Continuous Control Tasks with Adaptive Control Resolution [51.83951489847344]
ロボット工学の応用において、スムーズな制御信号はシステム摩耗とエネルギー効率を減らすために一般的に好まれる。
本研究では,離散的な動作空間を粗い状態から細かい制御分解能まで拡大することにより,この性能ギャップを埋めることを目的とする。
我々の研究は、値分解とアダプティブ・コントロール・リゾリューションが組み合わさることで、単純な批判のみのアルゴリズムが得られ、連続制御タスクにおいて驚くほど高い性能が得られることを示唆している。
論文 参考訳(メタデータ) (2024-04-05T17:58:37Z) - Robust nonlinear set-point control with reinforcement learning [0.0]
本稿では,高非線形な集合点制御問題においても,3つのアイデアが強化学習法を改善することを主張する。
この主張は、実世界の非線形カスケードタンクプロセスと、シミュレーションされた強い非線形pH制御システムによる実験によって支持されている。
論文 参考訳(メタデータ) (2023-04-20T13:00:04Z) - Improving the Performance of Robust Control through Event-Triggered
Learning [74.57758188038375]
LQR問題における不確実性に直面していつ学習するかを決定するイベントトリガー学習アルゴリズムを提案する。
本研究では,ロバストな制御器ベースライン上での性能向上を数値例で示す。
論文 参考訳(メタデータ) (2022-07-28T17:36:37Z) - Regularizing Action Policies for Smooth Control with Reinforcement
Learning [47.312768123967025]
Conditioning for Action Policy Smoothness(CAPS)は、アクションポリシーの効果的な直感的な正規化である。
capsは、ニューラルネットワークコントローラの学習状態-動作マッピングの滑らかさを一貫して改善する。
実システムでテストしたところ、クアドロタードローンのコントローラーの滑らかさが改善され、消費電力は80%近く削減された。
論文 参考訳(メタデータ) (2020-12-11T21:35:24Z) - Optimizing Mixed Autonomy Traffic Flow With Decentralized Autonomous
Vehicles and Multi-Agent RL [63.52264764099532]
本研究では、完全分散制御方式を用いて、混合自律環境でのボトルネックのスループットを向上させる自動運転車の能力について検討する。
この問題にマルチエージェント強化アルゴリズムを適用し、5%の浸透速度で20%から40%の浸透速度で33%までのボトルネックスループットの大幅な改善が達成できることを実証した。
論文 参考訳(メタデータ) (2020-10-30T22:06:05Z) - Learning a Contact-Adaptive Controller for Robust, Efficient Legged
Locomotion [95.1825179206694]
四足歩行ロボットのためのロバストコントローラを合成するフレームワークを提案する。
高レベルコントローラは、環境の変化に応じてプリミティブのセットを選択することを学習する。
確立された制御方法を使用してプリミティブを堅牢に実行する低レベルコントローラ。
論文 参考訳(メタデータ) (2020-09-21T16:49:26Z) - Anticipating the Long-Term Effect of Online Learning in Control [75.6527644813815]
AntLerは、学習を予想する学習ベースの制御法則の設計アルゴリズムである。
AntLer は確率 1 と任意に最適な解を近似することを示す。
論文 参考訳(メタデータ) (2020-07-24T07:00:14Z) - Optimal PID and Antiwindup Control Design as a Reinforcement Learning
Problem [3.131740922192114]
DRL制御法の解釈可能性に着目した。
特に、線形固定構造コントローラをアクター・クリティカル・フレームワークに埋め込まれた浅層ニューラルネットワークとみなす。
論文 参考訳(メタデータ) (2020-05-10T01:05:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。