論文の概要: ARLO: A Framework for Automated Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2205.10416v1
- Date: Fri, 20 May 2022 19:16:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-05 22:54:41.719131
- Title: ARLO: A Framework for Automated Reinforcement Learning
- Title(参考訳): ARLO: 強化学習を自動化するフレームワーク
- Authors: Marco Mussi, Davide Lombarda, Alberto Maria Metelli, Francesco
Trov\`o, Marcello Restelli
- Abstract要約: 本稿では,AutoRLの自動パイプライン構築のためのフレームワーク,すなわちARLO: Automated Reinforcement Learningを提案する。
我々はそのようなパイプラインのPython実装を提供し、オープンソースライブラリとしてリリースしています。
我々の実装は、実証的なLQGドメインと古典的な MuJoCo 環境でテストされている。
- 参考スコア(独自算出の注目度): 36.91138310444942
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated Reinforcement Learning (AutoRL) is a relatively new area of
research that is gaining increasing attention. The objective of AutoRL consists
in easing the employment of Reinforcement Learning (RL) techniques for the
broader public by alleviating some of its main challenges, including data
collection, algorithm selection, and hyper-parameter tuning. In this work, we
propose a general and flexible framework, namely ARLO: Automated Reinforcement
Learning Optimizer, to construct automated pipelines for AutoRL. Based on this,
we propose a pipeline for offline and one for online RL, discussing the
components, interaction, and highlighting the difference between the two
settings. Furthermore, we provide a Python implementation of such pipelines,
released as an open-source library. Our implementation has been tested on an
illustrative LQG domain and on classic MuJoCo environments, showing the ability
to reach competitive performances requiring limited human intervention. We also
showcase the full pipeline on a realistic dam environment, automatically
performing the feature selection and the model generation tasks.
- Abstract(参考訳): 自動強化学習(Automated Reinforcement Learning, AutoRL)は比較的新しい研究分野であり、注目を集めている。
AutoRLの目的は、データ収集、アルゴリズムの選択、ハイパーパラメータチューニングといった主な課題を緩和することで、一般大衆への強化学習(RL)技術の活用を緩和することにある。
本稿では,自動学習のための自動化パイプラインを構築するために,arlo: automated reinforcement learning optimizerという汎用的で柔軟なフレームワークを提案する。
これに基づいて,オフラインとオンラインrl用のパイプラインを提案し,コンポーネントやインタラクションについて議論し,これら2つの設定の違いを強調する。
さらに、このようなパイプラインのpython実装を提供し、オープンソースライブラリとしてリリースしています。
本実装はlqgドメインと古典的なmujoco環境上でテストされ,人間の介入を制限した競争性能に到達できることを示した。
また,機能選択とモデル生成タスクを自動的に実行して,現実的なダム環境上で全パイプラインを示す。
関連論文リスト
- A Benchmark Environment for Offline Reinforcement Learning in Racing Games [54.83171948184851]
オフライン強化学習(英語: Offline Reinforcement Learning、ORL)は、従来の強化学習(RL)の高サンプリング複雑さを減らすための有望なアプローチである。
本稿では,ORL研究のための新しい環境であるOfflineManiaを紹介する。
TrackManiaシリーズにインスパイアされ、Unity 3Dゲームエンジンで開発された。
論文 参考訳(メタデータ) (2024-07-12T16:44:03Z) - AutoAct: Automatic Agent Learning from Scratch for QA via Self-Planning [54.47116888545878]
AutoActはQAのための自動エージェント学習フレームワークである。
大規模アノテートデータやクローズドソースモデルからの合成計画軌道は依存していない。
論文 参考訳(メタデータ) (2024-01-10T16:57:24Z) - Mastering the Unsupervised Reinforcement Learning Benchmark from Pixels [112.63440666617494]
強化学習アルゴリズムは成功するが、エージェントと環境の間の大量の相互作用を必要とする。
本稿では,教師なしモデルベースRLを用いてエージェントを事前学習する手法を提案する。
我々はReal-Word RLベンチマークにおいて、適応中の環境摂動に対する抵抗性を示唆し、堅牢な性能を示す。
論文 参考訳(メタデータ) (2022-09-24T14:22:29Z) - Bayesian Generational Population-Based Training [35.70338636901159]
Population-Based Training (PBT)は、いくつかの大規模な設定で素晴らしいパフォーマンスを実現している。
PBTスタイルの手法に2つの新しい革新を導入する。
これらのイノベーションが大きなパフォーマンス向上につながっていることを示しています。
論文 参考訳(メタデータ) (2022-07-19T16:57:38Z) - Automated Reinforcement Learning (AutoRL): A Survey and Open Problems [92.73407630874841]
AutoRL(Automated Reinforcement Learning)には、AutoMLの標準的なアプリケーションだけでなく、RL特有の課題も含まれている。
我々は共通の分類法を提供し、各領域を詳細に議論し、今後の研究者にとって関心のあるオープンな問題を提起する。
論文 参考訳(メタデータ) (2022-01-11T12:41:43Z) - Sample-Efficient Automated Deep Reinforcement Learning [33.53903358611521]
本稿では、任意のオフポリティックなRLアルゴリズムをメタ最適化する、人口ベース自動RLフレームワークを提案する。
集団全体で収集した経験を共有することで,メタ最適化のサンプル効率を大幅に向上させる。
我々は,MuJoCoベンチマークスイートで人気のTD3アルゴリズムを用いたケーススタディにおいて,サンプル効率のよいAutoRLアプローチの能力を実証した。
論文 参考訳(メタデータ) (2020-09-03T10:04:06Z) - AutoFIS: Automatic Feature Interaction Selection in Factorization Models
for Click-Through Rate Prediction [75.16836697734995]
自動特徴相互作用選択(AutoFIS)と呼ばれる2段階のアルゴリズムを提案する。
AutoFISは、目標モデルを収束させるためにトレーニングするのと同等の計算コストで、因子化モデルに対する重要な特徴的相互作用を自動的に識別することができる。
AutoFISはHuawei App Storeレコメンデーションサービスのトレーニングプラットフォームにデプロイされている。
論文 参考訳(メタデータ) (2020-03-25T06:53:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。