論文の概要: Trustworthy AI for Process Automation on a Chylla-Haase Polymerization
Reactor
- arxiv url: http://arxiv.org/abs/2108.13381v1
- Date: Mon, 30 Aug 2021 17:04:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 14:50:21.853304
- Title: Trustworthy AI for Process Automation on a Chylla-Haase Polymerization
Reactor
- Title(参考訳): Chylla-Haase 重合反応器によるプロセス自動化のための信頼できるAI
- Authors: Daniel Hein and Daniel Labisch
- Abstract要約: 遺伝的プログラミング強化学習(GPRL)を用いて、Chylla-Haase重合反応器の人為的解釈可能な制御ポリシーを生成する。
これらのポリシーは、複雑さの低いホワイトボックスモデルであり、ターゲット制御システムにおける検証と実装が容易である。
しかし、その複雑さが低いにもかかわらず、自動生成ポリシーは原子炉温度制御の偏差の点で高い性能をもたらす。
- 参考スコア(独自算出の注目度): 0.8528384027684192
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, genetic programming reinforcement learning (GPRL) is utilized
to generate human-interpretable control policies for a Chylla-Haase
polymerization reactor. Such continuously stirred tank reactors (CSTRs) with
jacket cooling are widely used in the chemical industry, in the production of
fine chemicals, pigments, polymers, and medical products. Despite appearing
rather simple, controlling CSTRs in real-world applications is quite a
challenging problem to tackle. GPRL utilizes already existing data from the
reactor and generates fully automatically a set of optimized simplistic control
strategies, so-called policies, the domain expert can choose from. Note that
these policies are white-box models of low complexity, which makes them easy to
validate and implement in the target control system, e.g., SIMATIC PCS 7.
However, despite its low complexity the automatically-generated policy yields a
high performance in terms of reactor temperature control deviation, which we
empirically evaluate on the original reactor template.
- Abstract(参考訳): 本稿では,遺伝子プログラミング強化学習(GPRL)を用いて,Chylla-Haase重合反応器の人間解釈制御ポリシを生成する。
化学産業では、化学、顔料、ポリマー、医療製品の製造において、ジャケット冷却による連続的にかき混ぜられたタンクリアクター(CSTR)が広く用いられている。
かなり単純なように見えるが、現実世界のアプリケーションでCSTRを制御することは、非常に難しい問題である。
gprlは、すでに存在するリアクターからのデータを活用し、ドメインエキスパートが選択できるような、最適化された単純化された制御戦略、いわゆるポリシーを自動生成する。
これらのポリシーは、複雑さの低いホワイトボックスモデルであり、ターゲットのコントロールシステム(例えば、simatic pcs 7)で検証および実装が容易である。
しかし, その複雑さが低いにもかかわらず, 自動生成ポリシは反応器温度制御の偏差の点で高い性能を示し, 元の反応器テンプレートを実証的に評価した。
関連論文リスト
- Deployable Reinforcement Learning with Variable Control Rate [17.529703157304887]
可変制御率を持つ強化学習(RL)の変種を提案する。
このアプローチでは、ポリシーは、エージェントが取るべきアクションと、そのアクションに関連する時間ステップの期間を決定する。
ニュートンキネマティクスを用いたエージェントを駆動する概念実証シミュレーションによりSEACの有効性を示す。
論文 参考訳(メタデータ) (2024-01-17T15:40:11Z) - Chemist-X: Large Language Model-empowered Agent for Reaction Condition
Recommendation in Chemical Synthesis [59.11837224347467]
Chemist-Xは、検索増強生成(RAG)技術を用いた化学合成において、反応条件レコメンデーション(RCR)タスクを自動化する。
Chemist-Xはオンラインの分子データベースを尋問し、最新の文献データベースから重要なデータを蒸留する。
Chemist-Xは化学者の作業量を大幅に減らし、より根本的で創造的な問題に集中できるようにする。
論文 参考訳(メタデータ) (2023-11-16T01:21:33Z) - Surrogate Empowered Sim2Real Transfer of Deep Reinforcement Learning for
ORC Superheat Control [12.567922037611261]
本稿では,ORCスーパーヒート制御のためのSim2Real転送学習型DRL制御法を提案する。
実験結果から,ORC制御問題におけるDRLのトレーニング速度を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2023-08-05T01:59:44Z) - Distributed-Training-and-Execution Multi-Agent Reinforcement Learning
for Power Control in HetNet [48.96004919910818]
We propose a multi-agent Deep reinforcement learning (MADRL) based power control scheme for the HetNet。
エージェント間の協調を促進するために,MADRLシステムのためのペナルティベースQラーニング(PQL)アルゴリズムを開発した。
このように、エージェントのポリシーは、他のエージェントによってより容易に学習でき、より効率的なコラボレーションプロセスをもたらす。
論文 参考訳(メタデータ) (2022-12-15T17:01:56Z) - Local manifold learning and its link to domain-based physics knowledge [53.15471241298841]
多くの反応系では、熱化学状態空間は低次元多様体(LDM)に近く進化すると仮定される。
局所的データクラスタ(ローカルPCA)に適用されたPCAは,熱化学状態空間の固有パラメータ化を検出することができることを示す。
論文 参考訳(メタデータ) (2022-07-01T09:06:25Z) - TASAC: a twin-actor reinforcement learning framework with stochastic
policy for batch process control [1.101002667958165]
強化学習(Reinforcement Learning, RL)は、エージェントが環境と直接対話することでポリシーを学習し、この文脈において潜在的な代替手段を提供する。
アクター批判型アーキテクチャを持つRLフレームワークは、状態空間とアクション空間が連続しているシステムを制御するために最近人気になっている。
アクターと批評家のネットワークのアンサンブルは、同時に政策学習による探索の強化により、エージェントがより良い政策を学ぶのに役立つことが示されている。
論文 参考訳(メタデータ) (2022-04-22T13:00:51Z) - Policy Search for Model Predictive Control with Application to Agile
Drone Flight [56.24908013905407]
MPCのためのポリシ・フォー・モデル・予測制御フレームワークを提案する。
具体的には、パラメータ化コントローラとしてMPCを定式化し、パラメータ化の難しい決定変数を高レベルポリシーとして表現する。
シミュレーションと実環境の両方において,我々の制御器が堅牢かつリアルタイムに制御性能を発揮することを示す実験を行った。
論文 参考訳(メタデータ) (2021-12-07T17:39:24Z) - Robust Model-based Reinforcement Learning for Autonomous Greenhouse
Control [9.022924636907412]
強化学習(RL)アルゴリズムは人間の意思決定を超え、クローズドループ制御フレームワークにシームレスに統合することができる。
本稿では,自律型温室制御のためのモデルベースロバストなRLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-26T08:27:10Z) - Towards Automatic Actor-Critic Solutions to Continuous Control [7.312692481631664]
本稿では,アクター批判アルゴリズムを新しいドメインにチューニングする進化的アプローチを提案する。
私たちの設計は、サンプル効率が高く、ベースラインアプローチよりも実用的な利点を提供します。
次に、計算と研究の最小限の労力で高性能なソリューションを見つけるために、新しい制御タスクに適用する。
論文 参考訳(メタデータ) (2021-06-16T16:18:20Z) - RetCL: A Selection-based Approach for Retrosynthesis via Contrastive
Learning [107.64562550844146]
レトロシンセシスは深層学習の新たな研究分野である。
本稿では, 市販分子の候補群から, 反応物質の選択問題へとレトロシンセシスを再構成する新しいアプローチを提案する。
スコア機能を学ぶために、ハードネガティブマイニングを備えた新しいコントラストトレーニングスキームも提案します。
論文 参考訳(メタデータ) (2021-05-03T12:47:57Z) - Guided Constrained Policy Optimization for Dynamic Quadrupedal Robot
Locomotion [78.46388769788405]
我々は,制約付きポリシー最適化(CPPO)の実装に基づくRLフレームワークであるGCPOを紹介する。
誘導制約付きRLは所望の最適値に近い高速収束を実現し,正確な報酬関数チューニングを必要とせず,最適かつ物理的に実現可能なロボット制御動作を実現することを示す。
論文 参考訳(メタデータ) (2020-02-22T10:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。