論文の概要: A SWAT-based Reinforcement Learning Framework for Crop Management
- arxiv url: http://arxiv.org/abs/2302.04988v1
- Date: Fri, 10 Feb 2023 00:24:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-13 16:57:11.652311
- Title: A SWAT-based Reinforcement Learning Framework for Crop Management
- Title(参考訳): SWATによる作物管理のための強化学習フレームワーク
- Authors: Malvern Madondo, Muneeza Azmat, Kelsey Dipietro, Raya Horesh, Michael
Jacobs, Arun Bawa, Raghavan Srinivasan, Fearghal O'Donncha
- Abstract要約: 土壌・水質評価ツール(SWAT)の力学を利用した強化学習(RL)環境を導入する。
これにより、フル成長の季節に配備されるはずの時間と資源が大幅に節約される。
我々は,標準的な農業慣行や最先端のRLアルゴリズムに通知された経営戦略に従って,様々な意思決定エージェントを開発・ベンチマークすることで,フレームワークの有用性を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Crop management involves a series of critical, interdependent decisions or
actions in a complex and highly uncertain environment, which exhibit distinct
spatial and temporal variations. Managing resource inputs such as fertilizer
and irrigation in the face of climate change, dwindling supply, and soaring
prices is nothing short of a Herculean task. The ability of machine learning to
efficiently interrogate complex, nonlinear, and high-dimensional datasets can
revolutionize decision-making in agriculture. In this paper, we introduce a
reinforcement learning (RL) environment that leverages the dynamics in the Soil
and Water Assessment Tool (SWAT) and enables management practices to be
assessed and evaluated on a watershed level. This drastically saves time and
resources that would have been otherwise deployed during a full-growing season.
We consider crop management as an optimization problem where the objective is
to produce higher crop yield while minimizing the use of external farming
inputs (specifically, fertilizer and irrigation amounts). The problem is
naturally subject to environmental factors such as precipitation, solar
radiation, temperature, and soil water content. We demonstrate the utility of
our framework by developing and benchmarking various decision-making agents
following management strategies informed by standard farming practices and
state-of-the-art RL algorithms.
- Abstract(参考訳): 作物管理は、複雑で非常に不確実な環境における批判的、相互依存的な決定または行動の連続を伴い、空間的および時間的差異が異なる。
気候変動や供給の減退、価格の高騰に直面した肥料や灌水といった資源入力の管理は、単なるハーキュリアンタスクに過ぎません。
複雑な、非線形、高次元のデータセットを効率的に問う機械学習の能力は、農業における意思決定に革命をもたらす。
本稿では,土壌・水質評価ツール(SWAT)の力学を活用し,流域レベルでの経営実践の評価・評価を可能にする強化学習(RL)環境を提案する。
これにより、成長する季節に配備された時間と資源が大幅に節約される。
農作物管理は,外部の農業用インプットの使用を最小限に抑えつつ,収穫量を高めることを目的とした最適化問題であると考えている。
この問題は自然に降水、太陽放射、温度、土壌水分含量といった環境要因に左右される。
我々は,標準的農業実践と最先端のrlアルゴリズムから情報を得た経営戦略に従って,様々な意思決定エージェントを開発・ベンチマークすることにより,このフレームワークの有用性を実証する。
関連論文リスト
- A Comparative Study of Deep Reinforcement Learning for Crop Production Management [13.123171643387668]
適応的な作物管理政策を開発するための有望なツールとして強化学習(RL)が登場している。
ジム-DSSATの作物モデル環境において, 作物管理, PPO, 深度Q-networks (DQN) に最も広く利用されているシミュレータの1つが, 有望な結果を示している。
本研究では,PPOとDQNを,体育DSSAT環境によって提供される3つのRLタスクの静的ベースラインポリシー(肥料化,灌水,混合管理)に対して評価した。
論文 参考訳(メタデータ) (2024-11-06T18:35:51Z) - AgGym: An agricultural biotic stress simulation environment for ultra-precision management planning [8.205412609306713]
本稿では, 現場における生物ストレスの拡散をモデル化するための, モジュラー, 作物, ストレスシミュレーションフレームワークであるAgGymを紹介する。
本稿では,AgGymを限られたデータでカスタマイズし,各種の生物ストレス条件下での収量分布をシミュレートできることを示す。
提案フレームワークは,生物ストレス管理のスケジュールを,機会的,規範的に基づく個人化された意思決定支援を実現する。
論文 参考訳(メタデータ) (2024-09-01T14:55:45Z) - Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - Intelligent Agricultural Greenhouse Control System Based on Internet of
Things and Machine Learning [0.0]
本研究は,モノのインターネット(IoT)と機械学習の融合に根ざした,高度な農業用温室制御システムを概念化し,実行しようとする試みである。
その結果、作物の生育効率と収量が向上し、資源の浪費が減少する。
論文 参考訳(メタデータ) (2024-02-14T09:07:00Z) - Learning-based agricultural management in partially observable
environments subject to climate variability [5.5062239803516615]
農業経営は、作物の収量、経済的な利益性、環境の持続可能性において中心的な役割を担っている。
我々は、深層強化学習(DRL)とリカレントニューラルネットワーク(RNN)を統合する革新的なフレームワークを導入する。
本研究は,極度の気象条件下での新たな最適政策を得るために,エージェント再訓練の必要性を照らすものである。
論文 参考訳(メタデータ) (2024-01-02T16:18:53Z) - Agave crop segmentation and maturity classification with deep learning
data-centric strategies using very high-resolution satellite imagery [101.18253437732933]
超高解像度衛星画像を用いたAgave tequilana Weber azul crop segmentation and mature classificationを提案する。
実世界の深層学習問題を,作物の選別という非常に具体的な文脈で解決する。
結果として得られた正確なモデルにより、大規模地域で生産予測を行うことができる。
論文 参考訳(メタデータ) (2023-03-21T03:15:29Z) - Exploration via Planning for Information about the Optimal Trajectory [67.33886176127578]
我々は,タスクと現在の知識を考慮に入れながら,探索を計画できる手法を開発した。
本手法は, 探索基準値よりも2倍少ないサンプルで, 強いポリシーを学習できることを実証する。
論文 参考訳(メタデータ) (2022-10-06T20:28:55Z) - Optimizing Crop Management with Reinforcement Learning and Imitation
Learning [9.69704937572711]
我々は,Nの施肥と灌水を,強化学習(RL),模倣学習(IL),作物シミュレーションを通じて同時に最適化するインテリジェントな作物管理システムを提案する。
フロリダ州のトウモロコシを用いたケーススタディの実験を行い,シミュレーションにおけるトウモロコシ管理ガイドラインとの比較を行った。
完全かつ部分的な観察の下で訓練された政策は、より良い結果をもたらす。その結果、より利益が上がり、環境への影響も小さくなる。
論文 参考訳(メタデータ) (2022-09-20T20:48:52Z) - Jalisco's multiclass land cover analysis and classification using a
novel lightweight convnet with real-world multispectral and relief data [51.715517570634994]
本稿では、LC分類と解析を行うために、新しい軽量(89kパラメータのみ)畳み込みニューラルネットワーク(ConvNet)を提案する。
本研究では,実世界のオープンデータソースを3つ組み合わせて13のチャネルを得る。
組込み分析は、いくつかのクラスにおいて限られたパフォーマンスを期待し、最も類似したクラスをグループ化する機会を与えてくれます。
論文 参考訳(メタデータ) (2022-01-26T14:58:51Z) - Learning from Data to Optimize Control in Precision Farming [77.34726150561087]
特集は、統計的推論、機械学習、精密農業のための最適制御における最新の発展を示す。
衛星の位置決めとナビゲーションとそれに続くInternet-of-Thingsは、リアルタイムで農業プロセスの最適化に使用できる膨大な情報を生成する。
論文 参考訳(メタデータ) (2020-07-07T12:44:17Z) - Ecological Reinforcement Learning [76.9893572776141]
このような条件下での学習を容易にする環境特性について検討する。
環境の特性が強化学習エージェントのパフォーマンスにどのように影響するかを理解することは、学習を魅力的にする方法でタスクを構造化するのに役立ちます。
論文 参考訳(メタデータ) (2020-06-22T17:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。