論文の概要: NEORL: NeuroEvolution Optimization with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2112.07057v1
- Date: Wed, 1 Dec 2021 17:55:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-19 16:01:58.896679
- Title: NEORL: NeuroEvolution Optimization with Reinforcement Learning
- Title(参考訳): NEORL:強化学習による神経進化最適化
- Authors: Majdi I. Radaideh, Katelin Du, Paul Seurin, Devin Seyler, Xubo Gu,
Haijia Wang, Koroush Shirvan
- Abstract要約: マサチューセッツ工科大学で開発された強化学習(NEORL)を用いたオープンソースのNeuroEvolution OptimizationのためのPythonフレームワークを提案する。
NEORLは進化計算、強化学習によるニューラルネットワーク、ハイブリッド神経進化アルゴリズムといった分野における最先端アルゴリズムのグローバルな最適化インターフェースを提供する。
- 参考スコア(独自算出の注目度): 0.8312466807725921
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present an open-source Python framework for NeuroEvolution Optimization
with Reinforcement Learning (NEORL) developed at the Massachusetts Institute of
Technology. NEORL offers a global optimization interface of state-of-the-art
algorithms in the field of evolutionary computation, neural networks through
reinforcement learning, and hybrid neuroevolution algorithms. NEORL features
diverse set of algorithms, user-friendly interface, parallel computing support,
automatic hyperparameter tuning, detailed documentation, and demonstration of
applications in mathematical and real-world engineering optimization. NEORL
encompasses various optimization problems from combinatorial, continuous, mixed
discrete/continuous, to high-dimensional, expensive, and constrained
engineering optimization. NEORL is tested in variety of engineering
applications relevant to low carbon energy research in addressing solutions to
climate change. The examples include nuclear reactor control and fuel cell
power production. The results demonstrate NEORL competitiveness against other
algorithms and optimization frameworks in the literature, and a potential tool
to solve large-scale optimization problems. More examples and benchmarking of
NEORL can be found here: https://neorl.readthedocs.io/en/latest/index.html
- Abstract(参考訳): マサチューセッツ工科大学で開発された強化学習(NEORL)を用いたオープンソースのNeuroEvolution OptimizationのためのPythonフレームワークを提案する。
NEORLは進化計算、強化学習によるニューラルネットワーク、ハイブリッド神経進化アルゴリズムといった分野における最先端アルゴリズムのグローバルな最適化インターフェースを提供する。
neorlは、様々なアルゴリズムセット、ユーザフレンドリーなインターフェース、並列コンピューティングサポート、自動ハイパーパラメータチューニング、詳細なドキュメント、数学的および実世界のエンジニアリング最適化におけるアプリケーションのデモンストレーションを備えている。
NEORLは、組合せ、連続、混合離散/連続、高次元、高価、制約付きエンジニアリング最適化など、様々な最適化問題を含んでいる。
NEORLは、気候変動対策における低炭素エネルギー研究に関連する様々な工学的応用で試験されている。
例えば、原子炉の制御や燃料電池の発電などである。
この結果は,他のアルゴリズムや最適化フレームワークに対するneorlの競争力を示し,大規模最適化問題を解決する潜在的なツールである。
NEORLのさらなる例とベンチマークは以下の通りである。
関連論文リスト
- Gradual Optimization Learning for Conformational Energy Minimization [69.36925478047682]
ニューラルネットワークによるエネルギー最小化のためのGradual Optimization Learning Framework(GOLF)は、必要な追加データを大幅に削減する。
GOLFでトレーニングしたニューラルネットワークは,種々の薬物様分子のベンチマークにおいて,オラクルと同等に動作することを示す。
論文 参考訳(メタデータ) (2023-11-05T11:48:08Z) - Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities [63.258517066104446]
進化的アルゴリズムの構成要素として統合された強化学習は,近年,優れた性能を示している。
本稿では,RL-EA 統合手法,RL-EA が採用する RL-EA 支援戦略,および既存文献による適用について論じる。
RL-EAセクションの適用例では、RL-EAのいくつかのベンチマークおよび様々な公開データセットにおける優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-25T15:06:05Z) - Assessment of Reinforcement Learning Algorithms for Nuclear Power Plant
Fuel Optimization [0.0]
この研究は、深いRLを用いてロードパターンの問題を解決するための第一種アプローチを示し、任意のエンジニアリング設計最適化に利用することができる。
論文 参考訳(メタデータ) (2023-05-09T23:51:24Z) - Karolos: An Open-Source Reinforcement Learning Framework for Robot-Task
Environments [0.3867363075280544]
強化学習(RL)研究において、シミュレーションはアルゴリズム間のベンチマークを可能にする。
本稿では,ロボット応用のためのフレームワークであるKarolosを紹介する。
コードはオープンソースでGitHubに公開されており、ロボット工学におけるRLアプリケーションの研究を促進することを目的としている。
論文 参考訳(メタデータ) (2022-12-01T23:14:02Z) - Approaching Globally Optimal Energy Efficiency in Interference Networks
via Machine Learning [22.926877147296594]
本研究は,マルチセル無線ネットワークにおけるエネルギー効率(EE)を最適化する機械学習手法を提案する。
その結果,この手法は分岐計算テストにより最適値に近いEEを達成できることが判明した。
論文 参考訳(メタデータ) (2022-11-25T08:36:34Z) - Neural Combinatorial Optimization: a New Player in the Field [69.23334811890919]
本稿では,ニューラルネットワークに基づくアルゴリズムの古典的最適化フレームワークへの導入に関する批判的分析を行う。
性能, 転送可能性, 計算コスト, 大規模インスタンスなど, これらのアルゴリズムの基本的側面を分析するために, 総合的研究を行った。
論文 参考訳(メタデータ) (2022-05-03T07:54:56Z) - Sample-Efficient Automated Deep Reinforcement Learning [33.53903358611521]
本稿では、任意のオフポリティックなRLアルゴリズムをメタ最適化する、人口ベース自動RLフレームワークを提案する。
集団全体で収集した経験を共有することで,メタ最適化のサンプル効率を大幅に向上させる。
我々は,MuJoCoベンチマークスイートで人気のTD3アルゴリズムを用いたケーススタディにおいて,サンプル効率のよいAutoRLアプローチの能力を実証した。
論文 参考訳(メタデータ) (2020-09-03T10:04:06Z) - EOS: a Parallel, Self-Adaptive, Multi-Population Evolutionary Algorithm
for Constrained Global Optimization [68.8204255655161]
EOSは実数値変数の制約付きおよび制約なし問題に対する大域的最適化アルゴリズムである。
これはよく知られた微分進化(DE)アルゴリズムに多くの改良を加えている。
その結果、EOSisは、最先端の単一人口自己適応Dアルゴリズムと比較して高い性能を達成可能であることが証明された。
論文 参考訳(メタデータ) (2020-07-09T10:19:22Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。