論文の概要: Optimizing Nitrogen Management with Deep Reinforcement Learning and Crop
Simulations
- arxiv url: http://arxiv.org/abs/2204.10394v1
- Date: Thu, 21 Apr 2022 20:26:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-25 14:27:51.096539
- Title: Optimizing Nitrogen Management with Deep Reinforcement Learning and Crop
Simulations
- Title(参考訳): 深層強化学習と作物シミュレーションによる窒素管理の最適化
- Authors: Jing Wu, Ran Tao, Pan Zhao, Nicolas F. Martin, Naira Hovakimyan
- Abstract要約: 窒素 (N) 管理は土壌の肥大化と作物生産の維持に重要であり, 負の環境影響を最小限に抑えるが, 最適化は困難である。
本稿では,深部強化学習(RL)を用いた知的N管理システムと農業技術移転意思決定支援システム(DSSAT)を用いた作物シミュレーションを提案する。
次に、シミュレーションされた作物環境とRLエージェントとの日々のインタラクションを可能にするGym-DSSATインタフェースと、Q-networkとソフトアクタ-クリティックアルゴリズムを用いて管理ポリシーをトレーニングする。
- 参考スコア(独自算出の注目度): 11.576438685465797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nitrogen (N) management is critical to sustain soil fertility and crop
production while minimizing the negative environmental impact, but is
challenging to optimize. This paper proposes an intelligent N management system
using deep reinforcement learning (RL) and crop simulations with Decision
Support System for Agrotechnology Transfer (DSSAT). We first formulate the N
management problem as an RL problem. We then train management policies with
deep Q-network and soft actor-critic algorithms, and the Gym-DSSAT interface
that allows for daily interactions between the simulated crop environment and
RL agents. According to the experiments on the maize crop in both Iowa and
Florida in the US, our RL-trained policies outperform previous empirical
methods by achieving higher or similar yield while using less fertilizers
- Abstract(参考訳): 窒素 (N) 管理は土壌の肥大化と作物生産の維持に重要であり, 負の環境影響を最小限に抑えるが, 最適化は困難である。
本稿では,深部強化学習(RL)を用いた知的N管理システムと農業技術移転意思決定支援システム(DSSAT)を用いた作物シミュレーションを提案する。
まず、N 管理問題を RL 問題として定式化する。
次に,q-network と soft actor-critic algorithm を用いて管理方針を訓練し,sm-dssat インタフェースを用いてシミュレーション作物環境とrlエージェント間の日常的なインタラクションを実現する。
米国アイオワ州とフロリダのトウモロコシ生産の実験によると、RLを訓練した政策は、肥料を減らしながら高収率または類似の収量を達成し、従来の経験的方法よりも優れている。
関連論文リスト
- Compressing Deep Reinforcement Learning Networks with a Dynamic
Structured Pruning Method for Autonomous Driving [63.155562267383864]
深部強化学習(DRL)は複雑な自律運転シナリオにおいて顕著な成功を収めている。
DRLモデルは、必然的に高いメモリ消費と計算をもたらし、リソース限定の自動運転デバイスへの広範な展開を妨げる。
そこで本研究では,DRLモデルの非重要なニューロンを段階的に除去する,新しい動的構造化プルーニング手法を提案する。
論文 参考訳(メタデータ) (2024-02-07T09:00:30Z) - Learning-based agricultural management in partially observable
environments subject to climate variability [5.5062239803516615]
農業経営は、作物の収量、経済的な利益性、環境の持続可能性において中心的な役割を担っている。
我々は、深層強化学習(DRL)とリカレントニューラルネットワーク(RNN)を統合する革新的なフレームワークを導入する。
本研究は,極度の気象条件下での新たな最適政策を得るために,エージェント再訓練の必要性を照らすものである。
論文 参考訳(メタデータ) (2024-01-02T16:18:53Z) - Hybrid Reinforcement Learning for Optimizing Pump Sustainability in
Real-World Water Distribution Networks [55.591662978280894]
本稿では,実世界の配水ネットワーク(WDN)のリアルタイム制御を強化するために,ポンプスケジューリング最適化問題に対処する。
我々の主な目的は、エネルギー消費と運用コストを削減しつつ、物理的な運用上の制約を遵守することである。
進化に基づくアルゴリズムや遺伝的アルゴリズムのような伝統的な最適化手法は、収束保証の欠如によってしばしば不足する。
論文 参考訳(メタデータ) (2023-10-13T21:26:16Z) - Direct Preference Optimization: Your Language Model is Secretly a Reward
Model [126.78737228677025]
本稿では,RLHFにおける報酬モデルの新たなパラメータ化について紹介する。
DPO(Direct Preference Optimization)と呼ばれる結果のアルゴリズムは、安定的で、性能が高く、計算的にも軽量である。
我々の実験は、DPOが人間の好みに合わせて微調整できるだけでなく、既存の方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-29T17:57:46Z) - Prompt-Tuning Decision Transformer with Preference Ranking [83.76329715043205]
本稿では,環境情報取得におけるRLエージェントの誘導手法としてトラジェクトリセグメントを用いたPrompt-Tuning DTアルゴリズムを提案する。
提案手法では,ガウス分布をランダムにサンプリングしてプロンプト軌道の要素を微調整し,選好ランク関数を用いて最適化方向を求める。
我々の研究は、RLにおける迅速な調整手法の進歩に寄与し、特定の選好タスクに対して大規模RLエージェントを最適化するための有望な方向性を提供する。
論文 参考訳(メタデータ) (2023-05-16T17:49:04Z) - A SWAT-based Reinforcement Learning Framework for Crop Management [0.0]
土壌・水質評価ツール(SWAT)の力学を利用した強化学習(RL)環境を導入する。
これにより、フル成長の季節に配備されるはずの時間と資源が大幅に節約される。
我々は,標準的な農業慣行や最先端のRLアルゴリズムに通知された経営戦略に従って,様々な意思決定エージェントを開発・ベンチマークすることで,フレームワークの有用性を実証する。
論文 参考訳(メタデータ) (2023-02-10T00:24:22Z) - Mastering the Unsupervised Reinforcement Learning Benchmark from Pixels [112.63440666617494]
強化学習アルゴリズムは成功するが、エージェントと環境の間の大量の相互作用を必要とする。
本稿では,教師なしモデルベースRLを用いてエージェントを事前学習する手法を提案する。
我々はReal-Word RLベンチマークにおいて、適応中の環境摂動に対する抵抗性を示唆し、堅牢な性能を示す。
論文 参考訳(メタデータ) (2022-09-24T14:22:29Z) - Optimizing Crop Management with Reinforcement Learning and Imitation
Learning [9.69704937572711]
我々は,Nの施肥と灌水を,強化学習(RL),模倣学習(IL),作物シミュレーションを通じて同時に最適化するインテリジェントな作物管理システムを提案する。
フロリダ州のトウモロコシを用いたケーススタディの実験を行い,シミュレーションにおけるトウモロコシ管理ガイドラインとの比較を行った。
完全かつ部分的な観察の下で訓練された政策は、より良い結果をもたらす。その結果、より利益が上がり、環境への影響も小さくなる。
論文 参考訳(メタデータ) (2022-09-20T20:48:52Z) - Robust Model-based Reinforcement Learning for Autonomous Greenhouse
Control [9.022924636907412]
強化学習(RL)アルゴリズムは人間の意思決定を超え、クローズドループ制御フレームワークにシームレスに統合することができる。
本稿では,自律型温室制御のためのモデルベースロバストなRLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-26T08:27:10Z) - CropGym: a Reinforcement Learning Environment for Crop Management [0.0]
強化学習エージェントが受精管理ポリシーを学ぶことができるOpenAIジム環境を実装します。
私たちの環境では、Proximal Policy Optimizationアルゴリズムで訓練されたエージェントが、他のベースラインエージェントよりも環境負荷の低減に成功しています。
論文 参考訳(メタデータ) (2021-04-09T12:17:26Z) - Combining Pessimism with Optimism for Robust and Efficient Model-Based
Deep Reinforcement Learning [56.17667147101263]
実世界のタスクでは、強化学習エージェントはトレーニング中に存在しない状況に遭遇する。
信頼性を確保するため、RLエージェントは最悪の状況に対して堅牢性を示す必要がある。
本稿では,Robust Hallucinated Upper-Confidence RL (RH-UCRL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-18T16:50:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。