論文の概要: gym-DSSAT: a crop model turned into a Reinforcement Learning environment
- arxiv url: http://arxiv.org/abs/2207.03270v1
- Date: Thu, 7 Jul 2022 12:45:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-08 13:23:17.028822
- Title: gym-DSSAT: a crop model turned into a Reinforcement Learning environment
- Title(参考訳): ジムDSSAT:強化学習環境に転換した作物モデル
- Authors: Gautron Romain, Padr\'on Emilio J., Preux Philippe, Bigot Julien,
Maillard Odalric-Ambrym, Emukpere David
- Abstract要約: 本稿では,リアルな作物管理タスクのためのオープンソースのRL環境を提案する。
ジムDSSAT(英語: gym-DSSAT)は、農業技術移転のための意思決定支援システム(DSSAT)のジムインタフェースである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Addressing a real world sequential decision problem with Reinforcement
Learning (RL) usually starts with the use of a simulated environment that
mimics real conditions. We present a novel open source RL environment for
realistic crop management tasks. gym-DSSAT is a gym interface to the Decision
Support System for Agrotechnology Transfer (DSSAT), a high fidelity crop
simulator. DSSAT has been developped over the last 30 years and is widely
recognized by agronomists. gym-DSSAT comes with predefined simulations based on
real world maize experiments. The environment is as easy to use as any gym
environment. We provide performance baselines using basic RL algorithms. We
also briefly outline how the monolithic DSSAT simulator written in Fortran has
been turned into a Python RL environment. Our methodology is generic and may be
applied to similar simulators. We report on very preliminary experimental
results which suggest that RL can help researchers to improve sustainability of
fertilization and irrigation practices.
- Abstract(参考訳): 強化学習(rl)による実世界の逐次的決定問題に対処するには、通常、実条件を模倣したシミュレーション環境の使用から始める。
リアルな作物管理タスクのためのオープンソースのRL環境を提案する。
ジムDSSAT(英語: gym-DSSAT)は、農業技術移転のための意思決定支援システム(DSSAT)のジムインタフェースである。
DSSATは過去30年間に開発され、アグロノミストによって広く認知されている。
gym-dssatは実世界のトウモロコシ実験に基づく事前定義されたシミュレーションを備えている。
その環境はあらゆるジム環境と同じくらい簡単に使える。
基本RLアルゴリズムを用いて性能ベースラインを提供する。
また、Fortranで書かれたモノリシックDSSATシミュレータがPython RL環境にどのように変換されたのかを概説する。
我々の手法は汎用的であり、同様のシミュレータに適用できるかもしれない。
本研究は,RLが研究者の肥料の持続可能性向上に役立つことを示唆する非常に予備的な実験結果について報告する。
関連論文リスト
- Gymnasium: A Standard Interface for Reinforcement Learning Environments [5.7144222327514616]
強化学習(Reinforcement Learning、RL)は、人工知能の多くの領域に革命をもたらす可能性がある成長分野である。
その約束にもかかわらず、RLの研究は環境やアルゴリズムの実装における標準化の欠如によってしばしば妨げられている。
Gymnasiumはオープンソースのライブラリで、RL環境の標準APIを提供する。
論文 参考訳(メタデータ) (2024-07-24T06:35:05Z) - A Benchmark Environment for Offline Reinforcement Learning in Racing Games [54.83171948184851]
オフライン強化学習(英語: Offline Reinforcement Learning、ORL)は、従来の強化学習(RL)の高サンプリング複雑さを減らすための有望なアプローチである。
本稿では,ORL研究のための新しい環境であるOfflineManiaを紹介する。
TrackManiaシリーズにインスパイアされ、Unity 3Dゲームエンジンで開発された。
論文 参考訳(メタデータ) (2024-07-12T16:44:03Z) - Provable Sim-to-real Transfer in Continuous Domain with Partial
Observations [39.18274543757048]
シン・トゥ・リアル・トランスファー(英語版)は、シミュレーション環境でRLエージェントを訓練し、実世界で展開する。
実環境における最適政策と競合するシミュレートされた環境から、人気のある頑健な対人訓練アルゴリズムが、ポリシーを学習できることを示す。
論文 参考訳(メタデータ) (2022-10-27T16:37:52Z) - SAM-RL: Sensing-Aware Model-Based Reinforcement Learning via
Differentiable Physics-Based Simulation and Rendering [49.78647219715034]
本稿では,SAM-RL と呼ばれる感性認識モデルに基づく強化学習システムを提案する。
SAM-RLは、センサーを意識した学習パイプラインによって、ロボットがタスクプロセスを監視するための情報的視点を選択することを可能にする。
我々は,ロボット組立,ツール操作,変形可能なオブジェクト操作という3つの操作タスクを達成するための実世界の実験に,我々のフレームワークを適用した。
論文 参考訳(メタデータ) (2022-10-27T05:30:43Z) - GrowSpace: Learning How to Shape Plants [7.962815426131101]
我々は、環境刺激に対する植物反応が、強化学習フレームワーク内でアプローチ可能な現実世界の問題の好例であると主張している。
光源を移動させることでプラントを制御することを目的として,新しいRLベンチマークとしてGrowSpaceを提案する。
ビデオゲームのRL環境と比較して、このシミュレータは実世界の問題に対処し、植物の成長と運動を物理的実験よりも高速に可視化するためのテストベッドとして機能する。
論文 参考訳(メタデータ) (2021-10-15T18:29:46Z) - Scenic4RL: Programmatic Modeling and Generation of Reinforcement
Learning Environments [89.04823188871906]
リアルタイム戦略(RTS)環境では,多様な現実シナリオの生成が難しい。
既存のシミュレータのほとんどは環境をランダムに生成することに頼っている。
我々は、研究者を支援するために、既存の形式シナリオ仕様言語であるSCENICを採用する利点を紹介する。
論文 参考訳(メタデータ) (2021-06-18T21:49:46Z) - NLPGym -- A toolkit for evaluating RL agents on Natural Language
Processing Tasks [2.5760935151452067]
NLPGymはオープンソースのPythonツールキットで、標準のNLPタスクに対してインタラクティブなテキスト環境を提供する。
研究の基盤となるRLアルゴリズムの異なる6つのタスクについて実験を行った。
論文 参考訳(メタデータ) (2020-11-16T20:58:35Z) - Robust Reinforcement Learning-based Autonomous Driving Agent for
Simulation and Real World [0.0]
本稿では,Deep Q-Networks (DQN) を用いた自律型ロボット制御を実現するDRLベースのアルゴリズムを提案する。
本手法では,エージェントはシミュレーション環境で訓練され,シミュレーション環境と実環境環境の両方をナビゲートすることができる。
トレーニングされたエージェントは限られたハードウェアリソース上で動作することができ、そのパフォーマンスは最先端のアプローチに匹敵する。
論文 参考訳(メタデータ) (2020-09-23T15:23:54Z) - The NetHack Learning Environment [79.06395964379107]
本稿では、強化学習研究のための手続き的に生成されたローグのような環境であるNetHack Learning Environment(NLE)を紹介する。
我々は,NetHackが,探索,計画,技術習得,言語条件付きRLといった問題に対する長期的な研究を促進するのに十分複雑であると主張している。
我々は,分散されたDeep RLベースラインとランダムネットワーク蒸留探索を用いて,ゲームの初期段階における実験的な成功を示す。
論文 参考訳(メタデータ) (2020-06-24T14:12:56Z) - RL-CycleGAN: Reinforcement Learning Aware Simulation-To-Real [74.45688231140689]
本稿では、画像翻訳におけるRL-scene整合性損失を導入し、画像に関連付けられたQ値に対して変換操作が不変であることを保証する。
RL-CycleGANは実世界のシミュレーションから実世界への変換による強化学習のための新しい手法である。
論文 参考訳(メタデータ) (2020-06-16T08:58:07Z) - Meta-Reinforcement Learning for Robotic Industrial Insertion Tasks [70.56451186797436]
本研究では,メタ強化学習を用いてシミュレーションの課題の大部分を解決する方法について検討する。
エージェントを訓練して現実の挿入タスクを成功させる手法を実証する。
論文 参考訳(メタデータ) (2020-04-29T18:00:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。