論文の概要: RL4CO: an Extensive Reinforcement Learning for Combinatorial
Optimization Benchmark
- arxiv url: http://arxiv.org/abs/2306.17100v1
- Date: Thu, 29 Jun 2023 16:57:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 12:29:22.586118
- Title: RL4CO: an Extensive Reinforcement Learning for Combinatorial
Optimization Benchmark
- Title(参考訳): RL4CO: Combinatorial Optimization Benchmarkのための拡張強化学習
- Authors: Federico Berto, Chuanbo Hua, Junyoung Park, Minsu Kim, Hyeonah Kim,
Jiwoo Son, Haeyeon Kim, Joungho Kim, Jinkyoo Park
- Abstract要約: 最適化(CO)ベンチマークのための拡張強化学習(RL)であるRL4COを紹介する。
RL4COは、モジュラリティや構成管理といった実装におけるベストプラクティスと同様に、最先端のソフトウェアライブラリを採用している。
- 参考スコア(独自算出の注目度): 10.548881485826923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce RL4CO, an extensive reinforcement learning (RL) for
combinatorial optimization (CO) benchmark. RL4CO employs state-of-the-art
software libraries as well as best practices in implementation, such as
modularity and configuration management, to be efficient and easily modifiable
by researchers for adaptations of neural network architecture, environments,
and algorithms. Contrary to the existing focus on specific tasks like the
traveling salesman problem (TSP) for performance assessment, we underline the
importance of scalability and generalization capabilities for diverse
optimization tasks. We also systematically benchmark sample efficiency,
zero-shot generalization, and adaptability to changes in data distributions of
various models. Our experiments show that some recent state-of-the-art methods
fall behind their predecessors when evaluated using these new metrics,
suggesting the necessity for a more balanced view of the performance of neural
CO solvers. We hope RL4CO will encourage the exploration of novel solutions to
complex real-world tasks, allowing to compare with existing methods through a
standardized interface that decouples the science from the software
engineering. We make our library publicly available at
https://github.com/kaist-silab/rl4co.
- Abstract(参考訳): 組合せ最適化(CO)ベンチマークのための拡張強化学習(RL)であるRL4COを紹介する。
rl4coは最先端のソフトウェアライブラリとモジュラリティや構成管理などの実装のベストプラクティスを採用しており、ニューラルネットワークアーキテクチャ、環境、アルゴリズムの適応について研究者によって効率的かつ容易に修正可能である。
パフォーマンスアセスメントのためのトラベルセールスマン問題(tsp)のような特定のタスクに対する既存のフォーカスとは対照的に、様々な最適化タスクにおけるスケーラビリティと一般化機能の重要性を強調する。
また, サンプル効率, ゼロショット一般化, 各種モデルのデータ分布変化への適応性を系統的に評価した。
実験の結果,新しい指標を用いた評価では,最新の手法が先行手法に遅れをきたすことが明らかとなり,ニューラルコソルバの性能をよりバランスのとれた視点の必要性が示唆された。
RL4COは、複雑な現実世界のタスクに対する新しいソリューションの探求を奨励し、ソフトウェア工学から科学を分離する標準化されたインターフェースを通じて既存の方法と比較できるようにしたい。
ライブラリをhttps://github.com/kaist-silab/rl4coで公開しています。
関連論文リスト
- Multi-Agent Environments for Vehicle Routing Problems [1.0179489519625304]
本稿では,従来の車両ルーティング問題をシミュレートするマルチエージェント環境からなるライブラリを提案する。
PyTorch上に構築されたこのライブラリは、新しいルーティング問題のカスタマイズと導入を容易にする、柔軟なモジュラーアーキテクチャ設計を提供する。
論文 参考訳(メタデータ) (2024-11-21T18:46:23Z) - Generative AI for Deep Reinforcement Learning: Framework, Analysis, and Use Cases [60.30995339585003]
深部強化学習(DRL)は様々な分野に広く適用されており、優れた成果を上げている。
DRLは、サンプル効率の低下や一般化の低さなど、いくつかの制限に直面している。
本稿では、これらの問題に対処し、DRLアルゴリズムの性能を向上させるために、生成AI(GAI)を活用する方法について述べる。
論文 参考訳(メタデータ) (2024-05-31T01:25:40Z) - Transform then Explore: a Simple and Effective Technique for Exploratory Combinatorial Optimization with Reinforcement Learning [11.531786269804707]
グラフ上の最適化問題(COP)を解決するためのゲージ変換(GT)手法を提案する。
GTは非常にシンプルで、10行未満のPythonコードで実装でき、ほとんどの強化学習モデルに適用できる。
GTを用いた従来のRLモデルでは,MaxCut問題に対して最先端の性能が得られた。
論文 参考訳(メタデータ) (2024-04-06T15:31:17Z) - Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities [63.258517066104446]
進化的アルゴリズムの構成要素として統合された強化学習は,近年,優れた性能を示している。
本稿では,RL-EA 統合手法,RL-EA が採用する RL-EA 支援戦略,および既存文献による適用について論じる。
RL-EAセクションの適用例では、RL-EAのいくつかのベンチマークおよび様々な公開データセットにおける優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-25T15:06:05Z) - SRL: Scaling Distributed Reinforcement Learning to Over Ten Thousand Cores [13.948640763797776]
本稿では,RLトレーニングアプリケーションを汎用フレームワークに統合する,RLトレーニングのデータフローに関する新しい抽象化を提案する。
スケーラブルで効率的で分散的なRLシステムであるReaLly scalableRLを開発した。
SRLは15k以上のCPUコアでRL実験を大規模に実施した初めての学術コミュニティである。
論文 参考訳(メタデータ) (2023-06-29T05:16:25Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Ensemble Reinforcement Learning in Continuous Spaces -- A Hierarchical
Multi-Step Approach for Policy Training [4.982806898121435]
本稿では,革新的な多段階統合手法に基づいて,基礎学習者のアンサンブルを訓練する手法を提案する。
本手法は,学習者間コラボレーションを効果的に促進するアンサンブルDRLのための新しい階層学習アルゴリズムの開発を可能にする。
また、このアルゴリズムは複数のベンチマークRL問題に対していくつかの最先端のDRLアルゴリズムより優れていることを示す。
論文 参考訳(メタデータ) (2022-09-29T00:42:44Z) - Sym-NCO: Leveraging Symmetricity for Neural Combinatorial Optimization [16.127824824652077]
深部強化学習(DRL)に基づく最適化(CO)法は,従来のCO解法に比べて有意な効果を示した。
本稿では,既存のDRL-NCO法の性能向上を実現する新しいトレーニング手法であるSym-NCOを提案する。
論文 参考訳(メタデータ) (2022-05-26T07:55:43Z) - CATCH: Context-based Meta Reinforcement Learning for Transferrable
Architecture Search [102.67142711824748]
CATCHは、転送可能なarChitecture searcHのための、Context-bAsed meTa強化学習アルゴリズムである。
メタラーニングとRLの組み合わせにより、CATCHは検索空間に依存しないまま、新しいタスクに効率的に適応できる。
また、ImageNet、COCO、Cityscapesの競合ネットワークとしてクロスドメインアーキテクチャサーチを扱うこともできる。
論文 参考訳(メタデータ) (2020-07-18T09:35:53Z) - Off-Policy Reinforcement Learning for Efficient and Effective GAN
Architecture Search [50.40004966087121]
本稿では,GANアーキテクチャ探索のための強化学習に基づくニューラルアーキテクチャ探索手法を提案する。
鍵となる考え方は、よりスムーズなアーキテクチャサンプリングのためのマルコフ決定プロセス(MDP)として、GANアーキテクチャ探索問題を定式化することである。
我々は,従来の政策によって生成されたサンプルを効率的に活用する,非政治的なGANアーキテクチャ探索アルゴリズムを利用する。
論文 参考訳(メタデータ) (2020-07-17T18:29:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。