論文の概要: GrowSpace: Learning How to Shape Plants
- arxiv url: http://arxiv.org/abs/2110.08307v1
- Date: Fri, 15 Oct 2021 18:29:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-10-22 02:17:56.043086
- Title: GrowSpace: Learning How to Shape Plants
- Title(参考訳): GrowSpace: 植物を形作る方法を学ぶ
- Authors: Yasmeen Hitti, Ionelia Buzatu, Manuel Del Verme, Mark Lefsrud, Florian
Golemo, Audrey Durand
- Abstract要約: 我々は、環境刺激に対する植物反応が、強化学習フレームワーク内でアプローチ可能な現実世界の問題の好例であると主張している。
光源を移動させることでプラントを制御することを目的として,新しいRLベンチマークとしてGrowSpaceを提案する。
ビデオゲームのRL環境と比較して、このシミュレータは実世界の問題に対処し、植物の成長と運動を物理的実験よりも高速に可視化するためのテストベッドとして機能する。
- 参考スコア(独自算出の注目度): 7.962815426131101
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Plants are dynamic systems that are integral to our existence and survival.
Plants face environment changes and adapt over time to their surrounding
conditions. We argue that plant responses to an environmental stimulus are a
good example of a real-world problem that can be approached within a
reinforcement learning (RL)framework. With the objective of controlling a plant
by moving the light source, we propose GrowSpace, as a new RL benchmark. The
back-end of the simulator is implemented using the Space Colonisation
Algorithm, a plant growing model based on competition for space. Compared to
video game RL environments, this simulator addresses a real-world problem and
serves as a test bed to visualize plant growth and movement in a faster way
than physical experiments. GrowSpace is composed of a suite of challenges that
tackle several problems such as control, multi-stage learning,fairness and
multi-objective learning. We provide agent baselines alongside case studies to
demonstrate the difficulty of the proposed benchmark.
- Abstract(参考訳): 植物は我々の存在と生存に不可欠な動的システムである。
植物は環境の変化に直面し、周囲の環境に順応する。
我々は、環境刺激に対する植物反応は、強化学習(RL)の枠組みの中でアプローチできる現実世界の問題の好例であると主張している。
光源を移動させることでプラントを制御することを目的として,新しいRLベンチマークとしてGrowSpaceを提案する。
シミュレータのバックエンドはスペースコロニーアルゴリズム(Space Colonisation Algorithm)を用いて実装されている。
ビデオゲームのrl環境と比較すると、このシミュレータは実世界の問題に対処し、植物の成長と運動を物理的実験よりも高速に可視化するテストベッドとして機能する。
GrowSpaceは、コントロール、マルチステージ学習、フェアネス、マルチオブジェクト学習など、いくつかの問題に対処する一連の課題で構成されている。
提案するベンチマークの難易度を示すために,ケーススタディとともにエージェントベースラインを提供する。
関連論文リスト
- Gazebo Plants: Simulating Plant-Robot Interaction with Cosserat Rods [11.379848739344814]
植物の動きをモデル化するために,コセラットロッドをベースとしたGazeboシミュレーションプラットフォーム用のプラグインを提案する。
筆者らは,このプラグインを用いて,果実を摘むロボットアームを模擬することにより,ガゼボで収穫シミュレーションを行うことができることを示した。
論文 参考訳(メタデータ) (2024-02-04T17:19:46Z) - Learning Curricula in Open-Ended Worlds [17.138779075998084]
この論文は、Unsupervised Environment Design (UED)と呼ばれる手法のクラスを開発する。
環境設計空間が与えられたら、UEDは自動的に訓練環境の無限のシーケンスやカリキュラムを生成する。
本論文は,UEDオートキュリキュラがRL薬を産生し,ロバスト性を大幅に改善することを示した。
論文 参考訳(メタデータ) (2023-12-03T16:44:00Z) - METRA: Scalable Unsupervised RL with Metric-Aware Abstraction [69.90741082762646]
Metric-Aware Abstraction (METRA)は、教師なし強化学習の新たな目標である。
潜在空間のあらゆる方向に移動することを学ぶことで、METRAは様々な振る舞いの抽出可能な集合を得る。
複雑なピクセルベースの環境においても,METRAは様々な有用な振る舞いを発見できることを示す。
論文 参考訳(メタデータ) (2023-10-13T06:43:11Z) - A Walk in the Park: Learning to Walk in 20 Minutes With Model-Free
Reinforcement Learning [86.06110576808824]
深層強化学習は、制御されていない環境での学習ポリシーに対する有望なアプローチである。
機械学習アルゴリズムとライブラリの最近の進歩と、慎重に調整されたロボットコントローラを組み合わせることで、現実世界では4分で学習できる。
論文 参考訳(メタデータ) (2022-08-16T17:37:36Z) - gym-DSSAT: a crop model turned into a Reinforcement Learning environment [0.0]
本稿では,リアルな作物管理タスクのためのオープンソースのRL環境を提案する。
ジムDSSAT(英語: gym-DSSAT)は、農業技術移転のための意思決定支援システム(DSSAT)のジムインタフェースである。
論文 参考訳(メタデータ) (2022-07-07T12:45:02Z) - OPEn: An Open-ended Physics Environment for Learning Without a Task [132.6062618135179]
オープンエンドな物理環境で学んだ世界のモデルが、特定のタスクを伴わずに、下流の物理推論タスクに再利用できるかどうかについて検討する。
我々は,OPEn(Open-ended Physics ENvironment)のベンチマークを構築し,この環境における学習表現をテストするためのいくつかのタスクを明示的に設計する。
その結果、教師なしのコントラスト学習を表現学習に用いたエージェントと、探索のためのインパクト駆動学習が最良の結果となった。
論文 参考訳(メタデータ) (2021-10-13T17:48:23Z) - Scenic4RL: Programmatic Modeling and Generation of Reinforcement
Learning Environments [89.04823188871906]
リアルタイム戦略(RTS)環境では,多様な現実シナリオの生成が難しい。
既存のシミュレータのほとんどは環境をランダムに生成することに頼っている。
我々は、研究者を支援するために、既存の形式シナリオ仕様言語であるSCENICを採用する利点を紹介する。
論文 参考訳(メタデータ) (2021-06-18T21:49:46Z) - The NetHack Learning Environment [79.06395964379107]
本稿では、強化学習研究のための手続き的に生成されたローグのような環境であるNetHack Learning Environment(NLE)を紹介する。
我々は,NetHackが,探索,計画,技術習得,言語条件付きRLといった問題に対する長期的な研究を促進するのに十分複雑であると主張している。
我々は,分散されたDeep RLベースラインとランダムネットワーク蒸留探索を用いて,ゲームの初期段階における実験的な成功を示す。
論文 参考訳(メタデータ) (2020-06-24T14:12:56Z) - Meta-Reinforcement Learning for Robotic Industrial Insertion Tasks [70.56451186797436]
本研究では,メタ強化学習を用いてシミュレーションの課題の大部分を解決する方法について検討する。
エージェントを訓練して現実の挿入タスクを成功させる手法を実証する。
論文 参考訳(メタデータ) (2020-04-29T18:00:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。