論文の概要: ChemGymRL: An Interactive Framework for Reinforcement Learning for
Digital Chemistry
- arxiv url: http://arxiv.org/abs/2305.14177v1
- Date: Tue, 23 May 2023 15:56:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 15:03:07.378940
- Title: ChemGymRL: An Interactive Framework for Reinforcement Learning for
Digital Chemistry
- Title(参考訳): ChemGymRL: デジタル化学の強化学習のためのインタラクティブフレームワーク
- Authors: Chris Beeler, Sriram Ganapathi Subramanian, Kyle Sprague, Nouha
Chatti, Colin Bellinger, Mitchell Shahen, Nicholas Paquin, Mark Baula,
Amanuel Dawit, Zihan Yang, Xinkai Li, Mark Crowley, Isaac Tamblyn
- Abstract要約: 本稿では,化学発見にRL(Reinforcement Learning)を応用するための模擬実験室を提供する。
RLは、かなりデータ集約型であるため、実世界での行動をとる訓練エージェントは、実現不可能であり、危険である可能性がある。
我々は、標準のOpen AI Gymテンプレートに基づいて、高度にカスタマイズ可能でオープンソースのRL環境であるChemGymRLを紹介します。
- 参考スコア(独自算出の注目度): 2.350237106287331
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper provides a simulated laboratory for making use of Reinforcement
Learning (RL) for chemical discovery. Since RL is fairly data intensive,
training agents `on-the-fly' by taking actions in the real world is infeasible
and possibly dangerous. Moreover, chemical processing and discovery involves
challenges which are not commonly found in RL benchmarks and therefore offer a
rich space to work in. We introduce a set of highly customizable and
open-source RL environments, ChemGymRL, based on the standard Open AI Gym
template. ChemGymRL supports a series of interconnected virtual chemical
benches where RL agents can operate and train. The paper introduces and details
each of these benches using well-known chemical reactions as illustrative
examples, and trains a set of standard RL algorithms in each of these benches.
Finally, discussion and comparison of the performances of several standard RL
methods are provided in addition to a list of directions for future work as a
vision for the further development and usage of ChemGymRL.
- Abstract(参考訳): 本稿では,化学発見にRL(Reinforcement Learning)を応用するための模擬実験室を提供する。
RLは、かなりデータ集約型であるため、実世界での行動を取る訓練エージェント「on-the-fly」は実現不可能であり、おそらく危険である。
さらに、化学処理と発見には、rlベンチマークにはあまり見られない課題が伴うため、作業スペースが豊富になる。
我々は、標準のOpen AI Gymテンプレートに基づいて、高度にカスタマイズ可能でオープンソースのRL環境であるChemGymRLを紹介します。
ChemGymRLは、RLエージェントが操作および訓練できる一連の相互接続された仮想化学ベンチをサポートする。
本稿では,これらのベンチについて,よく知られた化学反応を例に紹介・詳述し,各ベンチに標準RLアルゴリズムのセットを訓練する。
最後に、ChemGymRLのさらなる開発と利用のビジョンとして、今後の作業の方向性のリストに加え、いくつかの標準RL法の性能に関する議論と比較を行った。
関連論文リスト
- Kinetix: Investigating the Training of General Agents through Open-Ended Physics-Based Control Tasks [3.479490713357225]
我々は、何千万もの2次元物理に基づくタスクを手続き的に生成し、それらを物理制御のための一般強化学習(RL)エージェントの訓練に使用する。
Kinetixは物理ベースのRL環境のオープンエンドスペースで、ロボットの移動やグリップからビデオゲームや古典的なRL環境まで、さまざまなタスクを表現できる。
我々の訓練されたエージェントは強力な物理的推論能力を示し、目に見えない人間が設計した環境をゼロショットで解決することができる。
論文 参考訳(メタデータ) (2024-10-30T16:59:41Z) - Open RL Benchmark: Comprehensive Tracked Experiments for Reinforcement
Learning [41.971465819626005]
我々は、完全に追跡されたRL実験のセットであるOpen RL Benchmarkを紹介する。
Open RL Benchmarkはコミュニティ主導で、誰でもダウンロード、使用、データへのコントリビューションが可能です。
それぞれの実験が正確に再現可能であることを保証するため、特別に注意が払われる。
論文 参考訳(メタデータ) (2024-02-05T14:32:00Z) - SRL: Scaling Distributed Reinforcement Learning to Over Ten Thousand Cores [13.948640763797776]
本稿では,RLトレーニングアプリケーションを汎用フレームワークに統合する,RLトレーニングのデータフローに関する新しい抽象化を提案する。
スケーラブルで効率的で分散的なRLシステムであるReaLly scalableRLを開発した。
SRLは15k以上のCPUコアでRL実験を大規模に実施した初めての学術コミュニティである。
論文 参考訳(メタデータ) (2023-06-29T05:16:25Z) - On Transforming Reinforcement Learning by Transformer: The Development
Trajectory [97.79247023389445]
Transformerは元々自然言語処理用に開発されたもので、コンピュータビジョンでも大きな成功を収めている。
既存の開発をアーキテクチャ拡張と軌道最適化の2つのカテゴリに分類する。
ロボット操作,テキストベースのゲーム,ナビゲーション,自律運転におけるTRLの主な応用について検討する。
論文 参考訳(メタデータ) (2022-12-29T03:15:59Z) - LCRL: Certified Policy Synthesis via Logically-Constrained Reinforcement
Learning [78.2286146954051]
LCRLは未知決定プロセス(MDP)上でのモデルフリー強化学習(RL)アルゴリズムを実装している
本稿では,LCRLの適用性,使いやすさ,拡張性,性能を示すケーススタディを提案する。
論文 参考訳(メタデータ) (2022-09-21T13:21:00Z) - JORLDY: a fully customizable open source framework for reinforcement
learning [3.1864456096282696]
強化学習(Reinforcement Learning, RL)は、学術分野と産業分野の両方で活発に研究されている。
JORLDYは、Pytorchで実装された20以上の広く使われているRLアルゴリズムを提供する。
JORLDYはOpenAIジム、Unity ML-Agents、Mujoco、Super Mario Bros、Procgenなど、複数のRL環境をサポートしている。
論文 参考訳(メタデータ) (2022-04-11T06:28:27Z) - Automated Reinforcement Learning (AutoRL): A Survey and Open Problems [92.73407630874841]
AutoRL(Automated Reinforcement Learning)には、AutoMLの標準的なアプリケーションだけでなく、RL特有の課題も含まれている。
我々は共通の分類法を提供し、各領域を詳細に議論し、今後の研究者にとって関心のあるオープンな問題を提起する。
論文 参考訳(メタデータ) (2022-01-11T12:41:43Z) - Towards Standardizing Reinforcement Learning Approaches for Stochastic
Production Scheduling [77.34726150561087]
強化学習はスケジューリングの問題を解決するのに使える。
既存の研究は、コードが利用できない複雑なシミュレーションに依存している。
から選ぶべきRLの設計の広大な配列があります。
モデル記述の標準化 - 生産セットアップとRL設計の両方 - と検証スキームは前提条件です。
論文 参考訳(メタデータ) (2021-04-16T16:07:10Z) - Maximum Entropy RL (Provably) Solves Some Robust RL Problems [94.80212602202518]
我々は、標準最大エントロピーRLが動的および報酬関数のいくつかの障害に対して堅牢であることを理論的に証明する。
以上の結果から,MaxEnt RL自体が特定の障害に対して頑健であり,追加の修正は不要であることが示唆された。
論文 参考訳(メタデータ) (2021-03-10T18:45:48Z) - EasyRL: A Simple and Extensible Reinforcement Learning Framework [3.2173369911280023]
EasyRLは、ユーザがRLエージェントをトレーニングし、評価するためのインタラクティブなグラフィカルユーザインターフェースを提供する。
EasyRLは、単純な組み込みRLエージェントのトレーニングとテストのためのプログラミング知識を必要としない。
EasyRLはカスタムRLエージェントと環境もサポートしており、RLモデルの評価と比較において、RL研究者にとって非常に有益である。
論文 参考訳(メタデータ) (2020-08-04T17:02:56Z) - MushroomRL: Simplifying Reinforcement Learning Research [60.70556446270147]
MushroomRLはオープンソースのPythonライブラリで、強化学習(RL)実験の実装と実行を簡単にするために開発された。
他の利用可能なライブラリと比較して、MushroomRLは、新しいRL方法論の実装とテストの労力を最小限に抑えるために、包括的で柔軟なフレームワークを提供することを目的として作られた。
論文 参考訳(メタデータ) (2020-01-04T17:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。