論文の概要: NEORL: NeuroEvolution Optimization with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2112.07057v1
- Date: Wed, 1 Dec 2021 17:55:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-19 16:01:58.896679
- Title: NEORL: NeuroEvolution Optimization with Reinforcement Learning
- Title(参考訳): NEORL:強化学習による神経進化最適化
- Authors: Majdi I. Radaideh, Katelin Du, Paul Seurin, Devin Seyler, Xubo Gu,
Haijia Wang, Koroush Shirvan
- Abstract要約: マサチューセッツ工科大学で開発された強化学習(NEORL)を用いたオープンソースのNeuroEvolution OptimizationのためのPythonフレームワークを提案する。
NEORLは進化計算、強化学習によるニューラルネットワーク、ハイブリッド神経進化アルゴリズムといった分野における最先端アルゴリズムのグローバルな最適化インターフェースを提供する。
- 参考スコア(独自算出の注目度): 0.8312466807725921
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present an open-source Python framework for NeuroEvolution Optimization
with Reinforcement Learning (NEORL) developed at the Massachusetts Institute of
Technology. NEORL offers a global optimization interface of state-of-the-art
algorithms in the field of evolutionary computation, neural networks through
reinforcement learning, and hybrid neuroevolution algorithms. NEORL features
diverse set of algorithms, user-friendly interface, parallel computing support,
automatic hyperparameter tuning, detailed documentation, and demonstration of
applications in mathematical and real-world engineering optimization. NEORL
encompasses various optimization problems from combinatorial, continuous, mixed
discrete/continuous, to high-dimensional, expensive, and constrained
engineering optimization. NEORL is tested in variety of engineering
applications relevant to low carbon energy research in addressing solutions to
climate change. The examples include nuclear reactor control and fuel cell
power production. The results demonstrate NEORL competitiveness against other
algorithms and optimization frameworks in the literature, and a potential tool
to solve large-scale optimization problems. More examples and benchmarking of
NEORL can be found here: https://neorl.readthedocs.io/en/latest/index.html
- Abstract(参考訳): マサチューセッツ工科大学で開発された強化学習(NEORL)を用いたオープンソースのNeuroEvolution OptimizationのためのPythonフレームワークを提案する。
NEORLは進化計算、強化学習によるニューラルネットワーク、ハイブリッド神経進化アルゴリズムといった分野における最先端アルゴリズムのグローバルな最適化インターフェースを提供する。
neorlは、様々なアルゴリズムセット、ユーザフレンドリーなインターフェース、並列コンピューティングサポート、自動ハイパーパラメータチューニング、詳細なドキュメント、数学的および実世界のエンジニアリング最適化におけるアプリケーションのデモンストレーションを備えている。
NEORLは、組合せ、連続、混合離散/連続、高次元、高価、制約付きエンジニアリング最適化など、様々な最適化問題を含んでいる。
NEORLは、気候変動対策における低炭素エネルギー研究に関連する様々な工学的応用で試験されている。
例えば、原子炉の制御や燃料電池の発電などである。
この結果は,他のアルゴリズムや最適化フレームワークに対するneorlの競争力を示し,大規模最適化問題を解決する潜在的なツールである。
NEORLのさらなる例とベンチマークは以下の通りである。
関連論文リスト
- Optimizing Variational Quantum Circuits Using Metaheuristic Strategies in Reinforcement Learning [2.7504809152812695]
本研究では,メタヒューリスティックアルゴリズム – Particle Swarm Optimization, Ant Colony Optimization, Tabu Search, Genetic Algorithm, Simulated Annealing, Harmony Search – の量子強化学習への統合について検討する。
5Times5$ MiniGrid Reinforcement Learning環境の評価は、すべてのアルゴリズムがほぼ最適結果をもたらすことを示している。
論文 参考訳(メタデータ) (2024-08-02T11:14:41Z) - NeoRL: Efficient Exploration for Nonepisodic RL [50.67294735645895]
非線形力学系における非線形強化学習(RL)の問題点について検討する。
我々は不確実性に直面した楽観主義の原理に基づくNonepisodic Optimistic RL(NeoRL)を提案する。
論文 参考訳(メタデータ) (2024-06-03T10:14:32Z) - Reactor Optimization Benchmark by Reinforcement Learning [0.24374097382908472]
本稿では,強化学習に特化して設計されたOpenNeoMCフレームワークのベンチマーク問題を紹介する。
テストケースは、異なる物理状態を表す、異なる局所的な最適性を備えており、アルゴリズムの学習に挑戦している。
厳密な制約で複雑な最適化景観をナビゲートする際の強化学習の有効性を実証する。
論文 参考訳(メタデータ) (2024-03-21T10:26:47Z) - Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities [63.258517066104446]
進化的アルゴリズムの構成要素として統合された強化学習は,近年,優れた性能を示している。
本稿では,RL-EA 統合手法,RL-EA が採用する RL-EA 支援戦略,および既存文献による適用について論じる。
RL-EAセクションの適用例では、RL-EAのいくつかのベンチマークおよび様々な公開データセットにおける優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-25T15:06:05Z) - RL4CO: an Extensive Reinforcement Learning for Combinatorial Optimization Benchmark [69.19502244910632]
深部強化学習(RL)は、最適化(CO)問題を解く上で大きな利点を示している。
RL4COは,23の最先端メソッドと20以上のCO問題を含む,詳細なライブラリカバレッジを備えた統一ベンチマークである。
効率的なソフトウェアライブラリと実装のベストプラクティスに基づいて構築されたRL4COは、モジュール化された実装と、多様なRLアルゴリズム、ニューラルネットワークアーキテクチャ、推論技術、環境の柔軟な構成を備えている。
論文 参考訳(メタデータ) (2023-06-29T16:57:22Z) - Assessment of Reinforcement Learning Algorithms for Nuclear Power Plant
Fuel Optimization [0.0]
この研究は、深いRLを用いてロードパターンの問題を解決するための第一種アプローチを示し、任意のエンジニアリング設計最適化に利用することができる。
論文 参考訳(メタデータ) (2023-05-09T23:51:24Z) - Karolos: An Open-Source Reinforcement Learning Framework for Robot-Task
Environments [0.3867363075280544]
強化学習(RL)研究において、シミュレーションはアルゴリズム間のベンチマークを可能にする。
本稿では,ロボット応用のためのフレームワークであるKarolosを紹介する。
コードはオープンソースでGitHubに公開されており、ロボット工学におけるRLアプリケーションの研究を促進することを目的としている。
論文 参考訳(メタデータ) (2022-12-01T23:14:02Z) - Approaching Globally Optimal Energy Efficiency in Interference Networks
via Machine Learning [22.926877147296594]
本研究は,マルチセル無線ネットワークにおけるエネルギー効率(EE)を最適化する機械学習手法を提案する。
その結果,この手法は分岐計算テストにより最適値に近いEEを達成できることが判明した。
論文 参考訳(メタデータ) (2022-11-25T08:36:34Z) - EOS: a Parallel, Self-Adaptive, Multi-Population Evolutionary Algorithm
for Constrained Global Optimization [68.8204255655161]
EOSは実数値変数の制約付きおよび制約なし問題に対する大域的最適化アルゴリズムである。
これはよく知られた微分進化(DE)アルゴリズムに多くの改良を加えている。
その結果、EOSisは、最先端の単一人口自己適応Dアルゴリズムと比較して高い性能を達成可能であることが証明された。
論文 参考訳(メタデータ) (2020-07-09T10:19:22Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。