論文の概要: Synthesis of separation processes with reinforcement learning
- arxiv url: http://arxiv.org/abs/2211.04327v1
- Date: Thu, 3 Nov 2022 22:21:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 23:27:28.706753
- Title: Synthesis of separation processes with reinforcement learning
- Title(参考訳): 強化学習による分離プロセスの合成
- Authors: Stephan C.P.A. van Kalmthout and Laurence I. Midgley and Meik B.
Franke
- Abstract要約: 本稿では,商用フローシートシミュレータソフトウェア(Aspen Plus V12)における強化学習の実装について述べる。
SAC剤の目的は、蒸留を用いて個々の成分中の炭化水素混合物を分離することであった。
エージェントのすべてのアクションはPythonのSACエージェントによって設定され、APIを介してAspen Plusで通信された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper shows the implementation of reinforcement learning (RL) in
commercial flowsheet simulator software (Aspen Plus V12) for designing and
optimising a distillation sequence. The aim of the SAC agent was to separate a
hydrocarbon mixture in its individual components by utilising distillation.
While doing so it tries to maximise the profit produced by the distillation
sequence. All actions of the agent were set by the SAC agent in Python and
communicated in Aspen Plus via an API. Here the distillation column was
simulated by use of the build-in RADFRAC column. With this a connection was
established for data transfer between Python and Aspen and the agent succeeded
to show learning behaviour, while increasing profit. Although results were
generated, the use of Aspen was slow (190 hours) and Aspen was found unsuitable
for parallelisation. This makes that Aspen is incompatible for solving RL
problems. Code and thesis are available at https://github.com/lollcat/Aspen-RL
- Abstract(参考訳): 本稿では, 商業フローシートシミュレータソフトウェア(Aspen Plus V12)における蒸留シーケンスの設計と最適化のための強化学習(RL)の実装について述べる。
SAC剤の目的は蒸留を利用して個々の成分中の炭化水素混合物を分離することであった。
その間、蒸留シーケンスによって生産される利益を最大化しようと試みる。
エージェントのすべてのアクションはPythonのSACエージェントによって設定され、APIを介してAspen Plusで通信された。
ここで蒸留塔はビルトインのRADFRACカラムを用いて模擬した。
これにより、PythonとAspen間のデータ転送のためのコネクションが確立され、エージェントは学習行動を示すことに成功した。
結果が得られたが,アスペンの使用は遅く(190時間),アスペンは並列化に適さないことがわかった。
したがって、AspenはRL問題の解決には不適合である。
コードとテーマはhttps://github.com/lollcat/Aspen-RLで公開されている。
関連論文リスト
- Boot and Switch: Alternating Distillation for Zero-Shot Dense Retrieval [50.47192086219752]
$texttABEL$は、ゼロショット設定でのパス検索を強化するための、シンプルだが効果的な教師なしのメソッドである。
ラベル付きデータに対して$texttABEL$を微調整するか、既存の教師付き高密度検索と統合することにより、最先端の結果が得られる。
論文 参考訳(メタデータ) (2023-11-27T06:22:57Z) - Parallel $Q$-Learning: Scaling Off-policy Reinforcement Learning under
Massively Parallel Simulation [17.827002299991285]
強化学習は、大量のトレーニングデータを必要とするため、複雑なタスクに時間を要する。
アイザック・ギムのようなGPUベースのシミュレーションの最近の進歩は、コモディティGPU上で何千回もデータを収集している。
本稿では,PPOを壁面時間で上回る並列$Q$-Learning方式を提案する。
論文 参考訳(メタデータ) (2023-07-24T17:59:37Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - PARTIME: Scalable and Parallel Processing Over Time with Deep Neural
Networks [68.96484488899901]
PartIMEは、データが継続的にストリーミングされるたびにニューラルネットワークを高速化するように設計されたライブラリです。
PartIMEは、ストリームから利用可能になった時点で、各データサンプルの処理を開始する。
オンライン学習において、PartialIMEと古典的な非並列ニューラル計算を経験的に比較するために実験が行われる。
論文 参考訳(メタデータ) (2022-10-17T14:49:14Z) - Do autoencoders need a bottleneck for anomaly detection? [78.24964622317634]
アイデンティティ関数を学習すると、異常検出にAEは役に立たない。
本研究では,非ボツルネック型AEの値について検討する。
無限大のAEを非ボトルネック型AEの極端な例として提案する。
論文 参考訳(メタデータ) (2022-02-25T11:57:58Z) - Retrieval-Augmented Reinforcement Learning [63.32076191982944]
過去の経験のデータセットを最適な行動にマップするために、ネットワークをトレーニングします。
検索プロセスは、現在のコンテキストで有用なデータセットから情報を取得するために訓練される。
検索強化R2D2はベースラインR2D2エージェントよりもかなり高速に学習し,より高いスコアを得ることを示す。
論文 参考訳(メタデータ) (2022-02-17T02:44:05Z) - WarpDrive: Extremely Fast End-to-End Deep Multi-Agent Reinforcement
Learning on a GPU [15.337470862838794]
我々は、単一のGPU上でエンドツーエンドのマルチエージェントRLを実装する、柔軟で軽量で使いやすいオープンソースのRLフレームワークであるWarpDriveを紹介します。
我々の設計ではシミュレーションとエージェントを並列に実行し、GPU上に1つのシミュレーションデータストアを配置して安全に更新する。
WarpDriveは、ベンチマークTagシミュレーションにおいて、2000の環境と1000のエージェント(CPU実装と比べて少なくとも100倍高いスループット)で290万の環境ステップ/秒を生成する。
論文 参考訳(メタデータ) (2021-08-31T16:59:27Z) - Deep Reinforcement Learning for Process Synthesis [0.0]
本稿では, 蒸留ギムによるプロセス合成への強化学習の適用について述べる。
ディープRLエージェントは、蒸留ジャムの内部で学習し、合理的な設計をすることができる。
最後に,化学工学プロセス合成のための汎用強化学習ソフトウェアツールキットであるChemical Engineering Gymを提案する。
論文 参考訳(メタデータ) (2020-09-23T11:34:35Z) - Decoupling Representation Learning from Reinforcement Learning [89.82834016009461]
Augmented Temporal Contrast (ATC) と呼ばれる教師なし学習タスクを導入する。
ATCは畳み込みエンコーダを訓練し、短い時間差で分離された観測ペアを関連付ける。
オンラインRL実験では,ATCマッチを用いたエンコーダのトレーニングや,エンド・ツー・エンドのRLよりも優れていた。
論文 参考訳(メタデータ) (2020-09-14T19:11:13Z) - AxCell: Automatic Extraction of Results from Machine Learning Papers [44.15443359660737]
論文から結果を抽出する自動機械学習パイプラインであるAxCellを紹介する。
既存の手法と比較すると,本手法は結果抽出のための技術の現状を大幅に改善する。
本稿では,本手法が実運用における半自動結果抽出に有効であることを示す。
論文 参考訳(メタデータ) (2020-04-29T17:33:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。