論文の概要: Automated Reinforcement Learning: An Overview
- arxiv url: http://arxiv.org/abs/2201.05000v1
- Date: Thu, 13 Jan 2022 14:28:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-14 20:22:54.260192
- Title: Automated Reinforcement Learning: An Overview
- Title(参考訳): 強化学習の自動化 - 概観
- Authors: Reza Refaei Afshar, Yingqian Zhang, Joaquin Vanschoren, Uzay Kaymak
- Abstract要約: 強化学習と深層強化学習は、シーケンシャルな意思決定問題を解決する一般的な方法である。
本稿では,RLの自動化に使用可能な文献と最近の研究について考察する。
- 参考スコア(独自算出の注目度): 6.654552816487819
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reinforcement Learning and recently Deep Reinforcement Learning are popular
methods for solving sequential decision making problems modeled as Markov
Decision Processes. RL modeling of a problem and selecting algorithms and
hyper-parameters require careful considerations as different configurations may
entail completely different performances. These considerations are mainly the
task of RL experts; however, RL is progressively becoming popular in other
fields where the researchers and system designers are not RL experts. Besides,
many modeling decisions, such as defining state and action space, size of
batches and frequency of batch updating, and number of timesteps are typically
made manually. For these reasons, automating different components of RL
framework is of great importance and it has attracted much attention in recent
years. Automated RL provides a framework in which different components of RL
including MDP modeling, algorithm selection and hyper-parameter optimization
are modeled and defined automatically. In this article, we explore the
literature and present recent work that can be used in automated RL. Moreover,
we discuss the challenges, open questions and research directions in AutoRL.
- Abstract(参考訳): 強化学習と近年のDeep Reinforcement Learningはマルコフ決定プロセスとしてモデル化されたシーケンシャルな意思決定問題を解決する一般的な方法である。
問題のRLモデリングとアルゴリズムの選択とハイパーパラメータは、異なる構成が全く異なる性能を必要とするため、慎重に考慮する必要がある。
これらの考察は主にRLの専門家の課題であるが、研究者やシステムデザイナーがRLの専門家ではない他の分野でもRLは徐々に人気が高まっている。
さらに、状態とアクション空間の定義、バッチのサイズ、バッチ更新の頻度、タイムステップの数など、多くのモデリング決定が手作業で行われます。
これらの理由から、RLフレームワークの異なるコンポーネントを自動化することが非常に重要であり、近年は注目されている。
自動RLは、MDPモデリング、アルゴリズム選択、ハイパーパラメータ最適化を含むRLのさまざまなコンポーネントが自動的にモデル化され、定義されるフレームワークを提供する。
本稿では,RLの自動化に使用可能な文献と最近の研究について考察する。
さらに,AutoRLにおける課題,オープン質問,研究の方向性についても論じる。
関連論文リスト
- Transform then Explore: a Simple and Effective Technique for Exploratory Combinatorial Optimization with Reinforcement Learning [11.531786269804707]
グラフ上の最適化問題(COP)を解決するためのゲージ変換(GT)手法を提案する。
GTは非常にシンプルで、10行未満のPythonコードで実装でき、ほとんどの強化学習モデルに適用できる。
GTを用いた従来のRLモデルでは,MaxCut問題に対して最先端の性能が得られた。
論文 参考訳(メタデータ) (2024-04-06T15:31:17Z) - ArCHer: Training Language Model Agents via Hierarchical Multi-Turn RL [80.10358123795946]
大規模言語モデルを微調整するためのマルチターンRLアルゴリズムを構築するためのフレームワークを開発する。
我々のフレームワークは階層的なRLアプローチを採用し、2つのRLアルゴリズムを並列に実行している。
実験により,ArCHerはエージェントタスクの効率と性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-02-29T18:45:56Z) - Deep reinforcement learning for machine scheduling: Methodology, the
state-of-the-art, and future directions [2.4541568670428915]
マシンスケジューリングは、製造ルールとジョブ仕様に準拠しながら、マシンへのジョブ割り当てを最適化することを目的としている。
人工知能の重要な構成要素であるDeep Reinforcement Learning (DRL)は、ゲームやロボティクスなど、さまざまな分野において有望であることを示している。
本稿では、DRLに基づくアプローチの総合的なレビューと比較を行い、その方法論、応用、利点、限界を明らかにする。
論文 参考訳(メタデータ) (2023-10-04T22:45:09Z) - AutoRL Hyperparameter Landscapes [69.15927869840918]
強化学習(Reinforcement Learning, RL)は印象的な結果を生み出すことができるが、その使用はハイパーパラメータがパフォーマンスに与える影響によって制限されている。
我々は,これらのハイパーパラメータの景観を1つの時間だけではなく,複数の時間内に構築し,解析する手法を提案する。
これは、ハイパーパラメータがトレーニング中に動的に調整されるべきであるという理論を支持し、ランドスケープ解析によって得られるAutoRL問題に関するさらなる洞察の可能性を示している。
論文 参考訳(メタデータ) (2023-04-05T12:14:41Z) - A Survey of Meta-Reinforcement Learning [69.76165430793571]
我々は,メタRLと呼ばれるプロセスにおいて,機械学習問題自体として,より優れたRLアルゴリズムを開発した。
本稿では,タスク分布の存在と各タスクに利用可能な学習予算に基づいて,高レベルでメタRL研究をクラスタ化する方法について議論する。
RL実践者のための標準ツールボックスにメタRLを組み込むことの道程について,オープンな問題を提示することによって,結論を下す。
論文 参考訳(メタデータ) (2023-01-19T12:01:41Z) - Multi-Agent Reinforcement Learning for Microprocessor Design Space
Exploration [71.95914457415624]
マイクロプロセッサアーキテクトは、高性能でエネルギー効率の追求において、ドメイン固有のカスタマイズにますます頼っている。
この問題に対処するために,Multi-Agent RL (MARL) を利用した別の定式化を提案する。
評価の結果,MARLの定式化は単エージェントRLのベースラインよりも一貫して優れていた。
論文 参考訳(メタデータ) (2022-11-29T17:10:24Z) - Automated Reinforcement Learning (AutoRL): A Survey and Open Problems [92.73407630874841]
AutoRL(Automated Reinforcement Learning)には、AutoMLの標準的なアプリケーションだけでなく、RL特有の課題も含まれている。
我々は共通の分類法を提供し、各領域を詳細に議論し、今後の研究者にとって関心のあるオープンな問題を提起する。
論文 参考訳(メタデータ) (2022-01-11T12:41:43Z) - Towards Standardizing Reinforcement Learning Approaches for Stochastic
Production Scheduling [77.34726150561087]
強化学習はスケジューリングの問題を解決するのに使える。
既存の研究は、コードが利用できない複雑なシミュレーションに依存している。
から選ぶべきRLの設計の広大な配列があります。
モデル記述の標準化 - 生産セットアップとRL設計の両方 - と検証スキームは前提条件です。
論文 参考訳(メタデータ) (2021-04-16T16:07:10Z) - A Comparative Analysis of Deep Reinforcement Learning-enabled Freeway
Decision-making for Automated Vehicles [2.394554182452767]
人工知能の課題に対処するための強力な方法論として、深層強化学習(DRL)が登場している。
本稿では高速道路における自律走行車による意思決定問題に対するDRLアプローチについて比較する。
これらのDRL対応意思決定戦略の制御性能を評価するために,一連のシミュレーション実験を行った。
論文 参考訳(メタデータ) (2020-08-04T03:21:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。