論文の概要: Optimizing Crop Management with Reinforcement Learning and Imitation
Learning
- arxiv url: http://arxiv.org/abs/2209.09991v1
- Date: Tue, 20 Sep 2022 20:48:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 15:23:43.267248
- Title: Optimizing Crop Management with Reinforcement Learning and Imitation
Learning
- Title(参考訳): 強化学習と模倣学習による作物管理の最適化
- Authors: Ran Tao, Pan Zhao, Jing Wu, Nicolas F. Martin, Matthew T. Harrison,
Carla Ferreira, Zahra Kalantari, Naira Hovakimyan
- Abstract要約: 我々は,Nの施肥と灌水を,強化学習(RL),模倣学習(IL),作物シミュレーションを通じて同時に最適化するインテリジェントな作物管理システムを提案する。
フロリダ州のトウモロコシを用いたケーススタディの実験を行い,シミュレーションにおけるトウモロコシ管理ガイドラインとの比較を行った。
完全かつ部分的な観察の下で訓練された政策は、より良い結果をもたらす。その結果、より利益が上がり、環境への影響も小さくなる。
- 参考スコア(独自算出の注目度): 9.69704937572711
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Crop management, including nitrogen (N) fertilization and irrigation
management, has a significant impact on the crop yield, economic profit, and
the environment. Although management guidelines exist, it is challenging to
find the optimal management practices given a specific planting environment and
a crop. Previous work used reinforcement learning (RL) and crop simulators to
solve the problem, but the trained policies either have limited performance or
are not deployable in the real world. In this paper, we present an intelligent
crop management system which optimizes the N fertilization and irrigation
simultaneously via RL, imitation learning (IL), and crop simulations using the
Decision Support System for Agrotechnology Transfer (DSSAT). We first use deep
RL, in particular, deep Q-network, to train management policies that require
all state information from the simulator as observations (denoted as full
observation). We then invoke IL to train management policies that only need a
limited amount of state information that can be readily obtained in the real
world (denoted as partial observation) by mimicking the actions of the
previously RL-trained policies under full observation. We conduct experiments
on a case study using maize in Florida and compare trained policies with a
maize management guideline in simulations. Our trained policies under both full
and partial observations achieve better outcomes, resulting in a higher profit
or a similar profit with a smaller environmental impact. Moreover, the
partial-observation management policies are directly deployable in the real
world as they use readily available information.
- Abstract(参考訳): 窒素(n)の肥料化や灌水管理を含む作物管理は、作物の収量、経済的な利益、環境に大きな影響を与える。
経営指針は存在するが、特定の植林環境と作物に最適な経営実践を見つけることは困難である。
以前の研究では、強化学習(RL)と作物シミュレータを使用してこの問題を解決するが、訓練されたポリシーは性能が限られているか、実際の世界では展開できない。
本稿では,農業技術移転決定支援システム (dssat) を用いて, rl, 模倣学習 (il), 作物シミュレーションによるn施肥と灌水を同時に最適化する知的作物管理システムを提案する。
我々はまず、ディープRL、特にディープQネットワークを使用して、シミュレータからのすべての状態情報を観察(完全な観察)として要求する管理ポリシーを訓練する。
次に、実世界で容易に得ることのできる限られた量の状態情報しか必要としない経営方針(部分観察)を、以前のRL訓練方針の動作をフル観察で模倣することにより、ILを訓練する。
フロリダでmaizeを用いたケーススタディで実験を行い,訓練されたポリシーをmaize管理ガイドラインと比較した。
我々の訓練された政策は、完全な観測と部分的観測の両方の下でより良い結果をもたらし、より高い利益または環境影響の少ない同様の利益をもたらす。
さらに、部分観測管理ポリシーは、利用可能な情報を使用するため、現実世界に直接デプロイ可能である。
関連論文リスト
- CROPS: A Deployable Crop Management System Over All Possible State Availabilities [11.831002170207547]
デプロイ可能な textbfCRop 管理システム textbfOver all textbfPossible textbfState Availability (CROPS) を提案する。
論文 参考訳(メタデータ) (2024-11-09T02:06:09Z) - A Comparative Study of Deep Reinforcement Learning for Crop Production Management [13.123171643387668]
適応的な作物管理政策を開発するための有望なツールとして強化学習(RL)が登場している。
ジム-DSSATの作物モデル環境において, 作物管理, PPO, 深度Q-networks (DQN) に最も広く利用されているシミュレータの1つが, 有望な結果を示している。
本研究では,PPOとDQNを,体育DSSAT環境によって提供される3つのRLタスクの静的ベースラインポリシー(肥料化,灌水,混合管理)に対して評価した。
論文 参考訳(メタデータ) (2024-11-06T18:35:51Z) - The New Agronomists: Language Models are Experts in Crop Management [11.239822736512929]
本稿では,より先進的な作物管理システムを提案する。
我々は、特に深層Qネットワークである深部RLを用いて、シミュレータから多数の状態変数を観測として処理する管理ポリシーを訓練する。
我々のアプローチの新たな側面は、これらの状態変数をより情報的な言語に変換し、言語モデルが状態を理解し、最適な管理方法を探求する能力を促進することである。
論文 参考訳(メタデータ) (2024-03-28T21:20:27Z) - How Can LLM Guide RL? A Value-Based Approach [68.55316627400683]
強化学習(Reinforcement Learning, RL)は、将来の行動方針をフィードバックで改善することにより、シーケンシャルな意思決定問題の事実上の標準的実践となった。
大規模言語モデル(LLM)の最近の発展は、言語理解と生成において印象的な能力を示したが、探索と自己改善能力に欠けていた。
我々はLINVITというアルゴリズムを開発し、LLMガイダンスを値ベースRLの正規化因子として組み込んで学習に必要なデータ量を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-25T20:07:13Z) - Hybrid Reinforcement Learning for Optimizing Pump Sustainability in
Real-World Water Distribution Networks [55.591662978280894]
本稿では,実世界の配水ネットワーク(WDN)のリアルタイム制御を強化するために,ポンプスケジューリング最適化問題に対処する。
我々の主な目的は、エネルギー消費と運用コストを削減しつつ、物理的な運用上の制約を遵守することである。
進化に基づくアルゴリズムや遺伝的アルゴリズムのような伝統的な最適化手法は、収束保証の欠如によってしばしば不足する。
論文 参考訳(メタデータ) (2023-10-13T21:26:16Z) - A SWAT-based Reinforcement Learning Framework for Crop Management [0.0]
土壌・水質評価ツール(SWAT)の力学を利用した強化学習(RL)環境を導入する。
これにより、フル成長の季節に配備されるはずの時間と資源が大幅に節約される。
我々は,標準的な農業慣行や最先端のRLアルゴリズムに通知された経営戦略に従って,様々な意思決定エージェントを開発・ベンチマークすることで,フレームワークの有用性を実証する。
論文 参考訳(メタデータ) (2023-02-10T00:24:22Z) - Flexible Attention-Based Multi-Policy Fusion for Efficient Deep
Reinforcement Learning [78.31888150539258]
強化学習(RL)エージェントは、長い間、人間の学習の効率にアプローチしようとしてきた。
RLにおける以前の研究は、エージェントがサンプル効率を改善するために外部知識ポリシーを取り入れていた。
我々は,複数の知識ポリシーを融合させたRLパラダイムであるKGRL(Knowledge-Grounded RL)について述べる。
論文 参考訳(メタデータ) (2022-10-07T17:56:57Z) - Exploration via Planning for Information about the Optimal Trajectory [67.33886176127578]
我々は,タスクと現在の知識を考慮に入れながら,探索を計画できる手法を開発した。
本手法は, 探索基準値よりも2倍少ないサンプルで, 強いポリシーを学習できることを実証する。
論文 参考訳(メタデータ) (2022-10-06T20:28:55Z) - Optimizing Nitrogen Management with Deep Reinforcement Learning and Crop
Simulations [11.576438685465797]
窒素 (N) 管理は土壌の肥大化と作物生産の維持に重要であり, 負の環境影響を最小限に抑えるが, 最適化は困難である。
本稿では,深部強化学習(RL)を用いた知的N管理システムと農業技術移転意思決定支援システム(DSSAT)を用いた作物シミュレーションを提案する。
次に、シミュレーションされた作物環境とRLエージェントとの日々のインタラクションを可能にするGym-DSSATインタフェースと、Q-networkとソフトアクタ-クリティックアルゴリズムを用いて管理ポリシーをトレーニングする。
論文 参考訳(メタデータ) (2022-04-21T20:26:41Z) - Curriculum Offline Imitation Learning [72.1015201041391]
オフラインの強化学習タスクでは、エージェントは、環境とのさらなるインタラクションなしに、事前にコンパイルされたデータセットから学ぶ必要がある。
我々は,適応的な近隣政策を模倣する経験的選択戦略を,より高いリターンで活用するテキストカリキュラムオフライン学習(COIL)を提案する。
連続制御ベンチマークでは、COILを模倣ベースとRLベースの両方の手法と比較し、混合データセット上で平凡な振る舞いを学ぶことを避けるだけでなく、最先端のオフラインRL手法と競合することを示します。
論文 参考訳(メタデータ) (2021-11-03T08:02:48Z) - Building a Foundation for Data-Driven, Interpretable, and Robust Policy
Design using the AI Economist [67.08543240320756]
AIエコノミストフレームワークは,2段階強化学習とデータ駆動型シミュレーションを用いて,効果的な,柔軟な,解釈可能なポリシー設計を可能にする。
RLを用いて訓練されたログリニア政策は、過去の結果と比較して、公衆衛生と経済の両面から社会福祉を著しく改善することがわかった。
論文 参考訳(メタデータ) (2021-08-06T01:30:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。