論文の概要: A Reinforcement Learning Approach for Transient Control of Liquid Rocket
Engines
- arxiv url: http://arxiv.org/abs/2006.11108v1
- Date: Fri, 19 Jun 2020 12:50:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 04:42:43.673673
- Title: A Reinforcement Learning Approach for Transient Control of Liquid Rocket
Engines
- Title(参考訳): 液体ロケットエンジンの過渡制御のための強化学習手法
- Authors: G\"unther Waxenegger-Wilfing, Kai Dresia, Jan Christian Deeken,
Michael Oschwald
- Abstract要約: 本研究では, ガス発生器エンジンの連続起動位相の最適制御のための深部強化学習手法について検討する。
学習したポリシは,異なる定常動作点に到達し,システムパラメータの変化に説得力を持って適応できることが示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, liquid rocket engines use closed-loop control at most near steady
operating conditions. The control of the transient phases is traditionally
performed in open-loop due to highly nonlinear system dynamics. This situation
is unsatisfactory, in particular for reusable engines. The open-loop control
system cannot provide optimal engine performance due to external disturbances
or the degeneration of engine components over time. In this paper, we study a
deep reinforcement learning approach for optimal control of a generic
gas-generator engine's continuous start-up phase. It is shown that the learned
policy can reach different steady-state operating points and convincingly adapt
to changing system parameters. A quantitative comparison with carefully tuned
open-loop sequences and PID controllers is included. The deep reinforcement
learning controller achieves the highest performance and requires only minimal
computational effort to calculate the control action, which is a big advantage
over approaches that require online optimization, such as model predictive
control. control.
- Abstract(参考訳): 現在、液体ロケットエンジンは、ほぼ定常的な運用条件でクローズドループ制御を使用している。
過渡相の制御は伝統的に、高非線形系のダイナミクスのために開ループで行われる。
この状況は特に再利用可能なエンジンには不満足である。
オープンループ制御システムは、外乱やエンジン部品の経時的劣化のために最適なエンジン性能を提供できない。
本稿では,ジェネリックガス発生エンジンの連続起動位相の最適制御のための深層強化学習手法について検討する。
その結果,学習方針は異なる定常動作点に到達でき,システムパラメータの変化に納得できることがわかった。
慎重に調整されたオープンループシーケンスとPIDコントローラとの定量的比較を含む。
深層強化学習制御は高い性能を達成し、制御動作を計算するのに最小限の計算労力しか必要としないが、これはモデル予測制御のようなオンライン最適化を必要とするアプローチに対して大きな利点である。
コントロール。
関連論文リスト
- Iterative Learning Control of Fast, Nonlinear, Oscillatory Dynamics (Preprint) [0.0]
非線形でカオス的で、しばしばアクティブな制御方式では速すぎる。
そこで我々は,反復的,軌道最適化,パラメータ調整による代替能動制御システムを開発した。
特定の要件を満たす限り、コントローラは情報不足や制御不能なパラメータに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-05-30T13:27:17Z) - Growing Q-Networks: Solving Continuous Control Tasks with Adaptive Control Resolution [51.83951489847344]
ロボット工学の応用において、スムーズな制御信号はシステム摩耗とエネルギー効率を減らすために一般的に好まれる。
本研究では,離散的な動作空間を粗い状態から細かい制御分解能まで拡大することにより,この性能ギャップを埋めることを目的とする。
我々の研究は、値分解とアダプティブ・コントロール・リゾリューションが組み合わさることで、単純な批判のみのアルゴリズムが得られ、連続制御タスクにおいて驚くほど高い性能が得られることを示唆している。
論文 参考訳(メタデータ) (2024-04-05T17:58:37Z) - Mixed-Integer Optimal Control via Reinforcement Learning: A Case Study on Hybrid Electric Vehicle Energy Management [2.0762193863564926]
本稿では,2つの遅延深い決定論的アクターQ(TD3AQ)を最適制御問題に適用するハイブリッドアクション強化学習(HARL)アルゴリズムを提案する。
TD3AQはアクター批判とQ-ラーニングの両方の利点を組み合わせ、離散的かつ連続的なアクション空間を同時に扱うことができる。
提案手法はプラグインハイブリッド電気自動車(PHEV)のエネルギー管理問題に対して評価される。
論文 参考訳(メタデータ) (2023-05-02T14:42:21Z) - Physics-Inspired Temporal Learning of Quadrotor Dynamics for Accurate
Model Predictive Trajectory Tracking [76.27433308688592]
クオーロタのシステムダイナミクスを正確にモデル化することは、アジャイル、安全、安定したナビゲーションを保証する上で非常に重要です。
本稿では,ロボットの経験から,四重項系の力学を純粋に学習するための新しい物理インスパイアされた時間畳み込みネットワーク(PI-TCN)を提案する。
提案手法は,スパース時間的畳み込みと高密度フィードフォワード接続の表現力を組み合わせて,正確なシステム予測を行う。
論文 参考訳(メタデータ) (2022-06-07T13:51:35Z) - Comparative analysis of machine learning methods for active flow control [60.53767050487434]
遺伝的プログラミング(GP)と強化学習(RL)はフロー制御において人気を集めている。
この研究は2つの比較分析を行い、地球規模の最適化手法に対して最も代表的なアルゴリズムのいくつかをベンチマークする。
論文 参考訳(メタデータ) (2022-02-23T18:11:19Z) - Data-Efficient Deep Reinforcement Learning for Attitude Control of
Fixed-Wing UAVs: Field Experiments [0.37798600249187286]
DRLは、元の非線形力学を直接操作する固定翼UAVの姿勢制御をうまく学べることを示す。
我々は,UAVで学習したコントローラを飛行試験で展開し,最先端のArduPlane比例積分微分(PID)姿勢制御と同等の性能を示す。
論文 参考訳(メタデータ) (2021-11-07T19:07:46Z) - Sparsity in Partially Controllable Linear Systems [56.142264865866636]
本研究では, 部分制御可能な線形力学系について, 基礎となる空間パターンを用いて検討する。
最適制御には無関係な状態変数を特徴付ける。
論文 参考訳(メタデータ) (2021-10-12T16:41:47Z) - Comparison of Model Predictive and Reinforcement Learning Methods for
Fault Tolerant Control [2.524528674141466]
階層的強化学習に基づく離散時間系に対する2つの適応型耐故障制御方式を提案する。
実験により、強化学習に基づく制御器は、故障下のモデル予測制御器、部分的に観測可能なシステムモデル、様々なセンサノイズレベルよりも堅牢に動作することが示されている。
論文 参考訳(メタデータ) (2020-08-10T20:22:15Z) - Anticipating the Long-Term Effect of Online Learning in Control [75.6527644813815]
AntLerは、学習を予想する学習ベースの制御法則の設計アルゴリズムである。
AntLer は確率 1 と任意に最適な解を近似することを示す。
論文 参考訳(メタデータ) (2020-07-24T07:00:14Z) - Adaptive Control and Regret Minimization in Linear Quadratic Gaussian
(LQG) Setting [91.43582419264763]
我々は不確実性に直面した楽観主義の原理に基づく新しい強化学習アルゴリズムLqgOptを提案する。
LqgOptはシステムのダイナミクスを効率的に探索し、モデルのパラメータを信頼区間まで推定し、最も楽観的なモデルのコントローラをデプロイする。
論文 参考訳(メタデータ) (2020-03-12T19:56:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。