論文の概要: Robust Model-based Reinforcement Learning for Autonomous Greenhouse
Control
- arxiv url: http://arxiv.org/abs/2108.11645v1
- Date: Thu, 26 Aug 2021 08:27:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-27 14:05:26.306665
- Title: Robust Model-based Reinforcement Learning for Autonomous Greenhouse
Control
- Title(参考訳): 自律型温室制御のためのロバストモデルに基づく強化学習
- Authors: Wanpeng Zhang, Xiaoyan Cao, Yao Yao, Zhicheng An, Dijun Luo, Xi Xiao
- Abstract要約: 強化学習(RL)アルゴリズムは人間の意思決定を超え、クローズドループ制御フレームワークにシームレスに統合することができる。
本稿では,自律型温室制御のためのモデルベースロバストなRLフレームワークを提案する。
- 参考スコア(独自算出の注目度): 9.022924636907412
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the high efficiency and less weather dependency, autonomous
greenhouses provide an ideal solution to meet the increasing demand for fresh
food. However, managers are faced with some challenges in finding appropriate
control strategies for crop growth, since the decision space of the greenhouse
control problem is an astronomical number. Therefore, an intelligent
closed-loop control framework is highly desired to generate an automatic
control policy. As a powerful tool for optimal control, reinforcement learning
(RL) algorithms can surpass human beings' decision-making and can also be
seamlessly integrated into the closed-loop control framework. However, in
complex real-world scenarios such as agricultural automation control, where the
interaction with the environment is time-consuming and expensive, the
application of RL algorithms encounters two main challenges, i.e., sample
efficiency and safety. Although model-based RL methods can greatly mitigate the
efficiency problem of greenhouse control, the safety problem has not got too
much attention. In this paper, we present a model-based robust RL framework for
autonomous greenhouse control to meet the sample efficiency and safety
challenges. Specifically, our framework introduces an ensemble of environment
models to work as a simulator and assist in policy optimization, thereby
addressing the low sample efficiency problem. As for the safety concern, we
propose a sample dropout module to focus more on worst-case samples, which can
help improve the adaptability of the greenhouse planting policy in extreme
cases. Experimental results demonstrate that our approach can learn a more
effective greenhouse planting policy with better robustness than existing
methods.
- Abstract(参考訳): 高効率で天候の依存度が低いため、自律的な温室は新鮮な食料の需要の増加に対応する理想的な解決策となる。
しかし、温室効果ガス対策の意思決定空間は天文学的な数字であるため、経営者は作物栽培の適切な管理戦略を見つける上での課題に直面している。
したがって、インテリジェントなクローズドループ制御フレームワークは、自動制御ポリシーを生成するために非常に望ましい。
最適制御のための強力なツールとして、強化学習(RL)アルゴリズムは人間の意思決定を超え、クローズドループ制御フレームワークにシームレスに統合することができる。
しかし、農業自動化制御のような複雑な現実のシナリオでは、環境との相互作用が時間がかかり費用がかかるため、RLアルゴリズムの適用はサンプル効率と安全性という2つの大きな課題に直面している。
モデルベースRL法は温室制御の効率問題を著しく軽減するが,安全性の問題はあまり注目されていない。
本稿では,サンプルの効率と安全性の課題を満たすために,自律的温室効果ガス制御のためのモデルベースロバストrlフレームワークを提案する。
具体的には,シミュレータとして動作し,政策最適化の支援を行う環境モデルのアンサンブルを導入し,サンプル効率の低い問題に対処する。
安全上の問題として,極端ケースにおける温室栽培政策の適応性の向上に寄与する,最悪のサンプルに焦点をあてるサンプルドロップアウトモジュールを提案する。
実験の結果,本手法は既存の手法よりも頑健な温室栽培政策を学習できることが判明した。
関連論文リスト
- GreenLight-Gym: A Reinforcement Learning Benchmark Environment for Greenhouse Crop Production Control [0.0]
強化学習(Reinforcement Learning, RL)は、温室管理を自動化するための制御ポリシーを学ぶための有望なアプローチである。
我々は,現在最先端の温室モデルであるGreenLight上でRLアルゴリズムをトレーニングし,評価するために設計された,最初のオープンソース環境であるGreenLight-Gymを紹介する。
第二に、州の境界を強制するために、乗法または加法的なペナルティを用いる2つの報酬形成アプローチを比較する。
第3に,不随意トレーニングと気象データによるRL性能の評価を行い,未知条件への一般化を実証した。
論文 参考訳(メタデータ) (2024-10-06T18:25:23Z) - Extremum-Seeking Action Selection for Accelerating Policy Optimization [18.162794442835413]
連続空間の制御のための強化学習は、典型的にはガウス分布のような高エントロピーポリシーを用いて局所的な探索と性能の最適化を推定する。
本稿では,ESC(Extremum-Seeking Control)に基づく適応制御を付加することで,モデルフリーなRL設定におけるアクション選択を改善することを提案する。
本手法は, 各種制御学習環境において, 学習効率を向上させるために, 標準方針最適化において容易に追加することができる。
論文 参考訳(メタデータ) (2024-04-02T02:39:17Z) - A Safe Reinforcement Learning Algorithm for Supervisory Control of Power
Plants [7.1771300511732585]
モデルフリー強化学習(RL)は、制御タスクのための有望なソリューションとして登場した。
本稿では,監督制御のための近似ポリシ最適化に基づく確率制約付きRLアルゴリズムを提案する。
本手法は, 原子力プラント設計における負荷追従操作において, 違反距離と違反率の最小化を実現するものである。
論文 参考訳(メタデータ) (2024-01-23T17:52:49Z) - Hybrid Reinforcement Learning for Optimizing Pump Sustainability in
Real-World Water Distribution Networks [55.591662978280894]
本稿では,実世界の配水ネットワーク(WDN)のリアルタイム制御を強化するために,ポンプスケジューリング最適化問題に対処する。
我々の主な目的は、エネルギー消費と運用コストを削減しつつ、物理的な運用上の制約を遵守することである。
進化に基づくアルゴリズムや遺伝的アルゴリズムのような伝統的な最適化手法は、収束保証の欠如によってしばしば不足する。
論文 参考訳(メタデータ) (2023-10-13T21:26:16Z) - Enforcing Hard Constraints with Soft Barriers: Safe Reinforcement
Learning in Unknown Stochastic Environments [84.3830478851369]
本研究では,環境を協調的に学習し,制御ポリシーを最適化する安全な強化学習手法を提案する。
本手法は, 安全性の制約を効果的に適用し, シミュレーションにより測定したシステム安全率においてCMDPベースのベースライン法を著しく上回っている。
論文 参考訳(メタデータ) (2022-09-29T20:49:25Z) - Policy Search for Model Predictive Control with Application to Agile
Drone Flight [56.24908013905407]
MPCのためのポリシ・フォー・モデル・予測制御フレームワークを提案する。
具体的には、パラメータ化コントローラとしてMPCを定式化し、パラメータ化の難しい決定変数を高レベルポリシーとして表現する。
シミュレーションと実環境の両方において,我々の制御器が堅牢かつリアルタイムに制御性能を発揮することを示す実験を行った。
論文 参考訳(メタデータ) (2021-12-07T17:39:24Z) - IGrow: A Smart Agriculture Solution to Autonomous Greenhouse Control [8.344829083719857]
スマート農業ソリューション,すなわちiGrowを提案する。
私たちはIoTとクラウドコンピューティング技術を使って、成長するデータを測定し、収集し、管理しています。
私たちのソリューションは生産量(商業的に販売可能な果物)と純利益を大幅に増加させます。
論文 参考訳(メタデータ) (2021-07-06T11:35:50Z) - Learning Robust Hybrid Control Barrier Functions for Uncertain Systems [68.30783663518821]
我々は,ロバストな安全を確保する制御則を合成する手段として,ロバストなハイブリッド制御障壁関数を提案する。
この概念に基づき,データからロバストなハイブリッド制御障壁関数を学習するための最適化問題を定式化する。
我々の技術は、モデル不確実性の対象となるコンパス歩行歩行者の魅力領域を安全に拡張することを可能にする。
論文 参考訳(メタデータ) (2021-01-16T17:53:35Z) - Enforcing robust control guarantees within neural network policies [76.00287474159973]
本稿では、ニューラルネットワークによってパラメータ化され、ロバスト制御と同じ証明可能なロバスト性基準を適用した、一般的な非線形制御ポリシークラスを提案する。
提案手法は,複数の領域において有効であり,既存のロバスト制御法よりも平均ケース性能が向上し,(非ロバスト)深部RL法よりも最悪のケース安定性が向上した。
論文 参考訳(メタデータ) (2020-11-16T17:14:59Z) - Guided Constrained Policy Optimization for Dynamic Quadrupedal Robot
Locomotion [78.46388769788405]
我々は,制約付きポリシー最適化(CPPO)の実装に基づくRLフレームワークであるGCPOを紹介する。
誘導制約付きRLは所望の最適値に近い高速収束を実現し,正確な報酬関数チューニングを必要とせず,最適かつ物理的に実現可能なロボット制御動作を実現することを示す。
論文 参考訳(メタデータ) (2020-02-22T10:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。