論文の概要: MicroRacer: a didactic environment for Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2203.10494v1
- Date: Sun, 20 Mar 2022 08:55:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 18:14:25.913338
- Title: MicroRacer: a didactic environment for Deep Reinforcement Learning
- Title(参考訳): MicroRacer: 深層強化学習のための実践環境
- Authors: Andrea Asperti, Marco Del Brutto
- Abstract要約: MicroRacerは、特にDeep Reinforcement Learningの実践を目的とした、カーレースにインスパイアされた、シンプルでオープンソースの環境である。
環境の複雑さは、ユーザが様々な方法で実験できるように明確に調整されている。
DDPG、PPO、SAC、TD2、DSACといった主要な学習アルゴリズムのベースラインエージェントも、トレーニング時間と性能の予備比較とともに提供される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: MicroRacer is a simple, open source environment inspired by car racing
especially meant for the didactics of Deep Reinforcement Learning. The
complexity of the environment has been explicitly calibrated to allow users to
experiment with many different methods, networks and hyperparameters settings
without requiring sophisticated software or the need of exceedingly long
training times. Baseline agents for major learning algorithms such as DDPG,
PPO, SAC, TD2 and DSAC are provided too, along with a preliminary comparison in
terms of training time and performance.
- Abstract(参考訳): MicroRacerは、特にDeep Reinforcement Learningの実践を目的とした、カーレースにインスパイアされた、シンプルでオープンソースの環境である。
環境の複雑さは、ユーザーが洗練されたソフトウェアや非常に長いトレーニング時間を必要とすることなく、様々な方法、ネットワーク、ハイパーパラメータの設定を実験できるように、明示的に調整されている。
DDPG、PPO、SAC、TD2、DSACといった主要な学習アルゴリズムのベースラインエージェントも、トレーニング時間と性能の予備比較とともに提供される。
関連論文リスト
- Discovering Minimal Reinforcement Learning Environments [24.6408931194983]
強化学習(RL)エージェントは、通常、同じ環境で訓練され、評価される。
人間は試験を受ける前に本を勉強するなど、評価される前に専門的な環境で訓練することが多い。
論文 参考訳(メタデータ) (2024-06-18T13:19:26Z) - Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - End-to-end Lidar-Driven Reinforcement Learning for Autonomous Racing [0.0]
強化学習(Reinforcement Learning, RL)は、自動化とロボット工学の領域において、変革的なアプローチとして登場した。
本研究は、フィードフォワード生ライダーと速度データのみを用いて、レース環境をナビゲートするRLエージェントを開発し、訓練する。
エージェントのパフォーマンスは、実世界のレースシナリオで実験的に評価される。
論文 参考訳(メタデータ) (2023-09-01T07:03:05Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Discrete Control in Real-World Driving Environments using Deep
Reinforcement Learning [2.467408627377504]
本研究では,現実の環境をゲーム環境に移行させる,現実の運転環境におけるフレームワーク(知覚,計画,制御)を紹介する。
実環境における離散制御を学習し,実行するために,既存の強化学習(RL)アルゴリズムを多エージェント設定で提案する。
論文 参考訳(メタデータ) (2022-11-29T04:24:03Z) - DIAMBRA Arena: a New Reinforcement Learning Platform for Research and
Experimentation [91.3755431537592]
本研究は、強化学習研究と実験のための新しいプラットフォームであるDIAMBRA Arenaを提示する。
高品質な環境のコレクションが,OpenAI Gym標準に完全に準拠したPython APIを公開している。
これらは、離散的なアクションと観測を生のピクセルと追加の数値で構成したエピソディックなタスクである。
論文 参考訳(メタデータ) (2022-10-19T14:39:10Z) - A Walk in the Park: Learning to Walk in 20 Minutes With Model-Free
Reinforcement Learning [86.06110576808824]
深層強化学習は、制御されていない環境での学習ポリシーに対する有望なアプローチである。
機械学習アルゴリズムとライブラリの最近の進歩と、慎重に調整されたロボットコントローラを組み合わせることで、現実世界では4分で学習できる。
論文 参考訳(メタデータ) (2022-08-16T17:37:36Z) - Optical flow-based branch segmentation for complex orchard environments [73.11023209243326]
シミュレーションでは、シミュレーションでは、シミュレーションされたRGBデータと光フローのみを用いてニューラルネットワークシステムを訓練する。
このニューラルネットワークは、忙しい果樹園環境において、追加の現実世界のトレーニングや、標準カメラ以外の特別な設定や機器を使用することなく、前景の枝のセグメンテーションを行うことができる。
その結果,本システムは高精度であり,手動ラベル付きRGBDデータを用いたネットワークと比較すると,トレーニングセットと異なる環境において,より一貫性と堅牢性を実現していることがわかった。
論文 参考訳(メタデータ) (2022-02-26T03:38:20Z) - Improving the Accuracy of Early Exits in Multi-Exit Architectures via
Curriculum Learning [88.17413955380262]
マルチエクイットアーキテクチャにより、ディープニューラルネットワークは、正確なコストで厳密な期限に従うために、実行を早期に終了することができる。
カリキュラム学習を活用したマルチエクジットカリキュラム学習という新しい手法を紹介します。
本手法は, 標準訓練手法と比較して, 早期終了の精度を一貫して向上させる。
論文 参考訳(メタデータ) (2021-04-21T11:12:35Z) - rl_reach: Reproducible Reinforcement Learning Experiments for Robotic
Reaching Tasks [0.0]
自己完結型のオープンソースで使いやすいソフトウェアパッケージであるrl_reachを紹介します。
カスタマイズ可能なロボット到達タスクのための再現可能な強化学習実験を実行するように設計されている。
論文 参考訳(メタデータ) (2021-02-09T16:14:10Z) - AutoEG: Automated Experience Grafting for Off-Policy Deep Reinforcement
Learning [11.159797940803593]
本研究では,RLエージェントが経験プールから数少ない高品質な軌道のセグメントを再編成することを可能にするアルゴリズムであるExperience Grafting (EG) を開発した。
さらに,移植に基づく学習戦略の調整を自動学習するAutoEGエージェントを開発した。
6つのロボット制御環境から収集した結果は、標準的なディープRLアルゴリズム(DDPG)と比較して、AutoEGが学習プロセスの速度を少なくとも30%向上することを示している。
論文 参考訳(メタデータ) (2020-04-22T17:07:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。