論文の概要: The New Agronomists: Language Models are Experts in Crop Management
- arxiv url: http://arxiv.org/abs/2403.19839v1
- Date: Thu, 28 Mar 2024 21:20:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-01 17:04:07.365686
- Title: The New Agronomists: Language Models are Experts in Crop Management
- Title(参考訳): 新しいアグロノミスト:言語モデルは作物管理の専門家である
- Authors: Jing Wu, Zhixin Lai, Suiyao Chen, Ran Tao, Pan Zhao, Naira Hovakimyan,
- Abstract要約: 本稿では,より先進的な作物管理システムを提案する。
我々は、特に深層Qネットワークである深部RLを用いて、シミュレータから多数の状態変数を観測として処理する管理ポリシーを訓練する。
我々のアプローチの新たな側面は、これらの状態変数をより情報的な言語に変換し、言語モデルが状態を理解し、最適な管理方法を探求する能力を促進することである。
- 参考スコア(独自算出の注目度): 11.239822736512929
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Crop management plays a crucial role in determining crop yield, economic profitability, and environmental sustainability. Despite the availability of management guidelines, optimizing these practices remains a complex and multifaceted challenge. In response, previous studies have explored using reinforcement learning with crop simulators, typically employing simple neural-network-based reinforcement learning (RL) agents. Building on this foundation, this paper introduces a more advanced intelligent crop management system. This system uniquely combines RL, a language model (LM), and crop simulations facilitated by the Decision Support System for Agrotechnology Transfer (DSSAT). We utilize deep RL, specifically a deep Q-network, to train management policies that process numerous state variables from the simulator as observations. A novel aspect of our approach is the conversion of these state variables into more informative language, facilitating the language model's capacity to understand states and explore optimal management practices. The empirical results reveal that the LM exhibits superior learning capabilities. Through simulation experiments with maize crops in Florida (US) and Zaragoza (Spain), the LM not only achieves state-of-the-art performance under various evaluation metrics but also demonstrates a remarkable improvement of over 49\% in economic profit, coupled with reduced environmental impact when compared to baseline methods. Our code is available at \url{https://github.com/jingwu6/LM_AG}.
- Abstract(参考訳): 作物管理は、収穫量、経済的な利益性、環境の持続可能性を決定する上で重要な役割を担っている。
管理ガイドラインが利用可能であるにも関わらず、これらのプラクティスを最適化することは、複雑で多面的な課題である。
これに対し、従来の研究では、ニューラルネットワークに基づく強化学習(RL)エージェントを用いた作物シミュレータを用いた強化学習が研究されている。
本稿では,この基盤を基盤として,より先進的な知的な作物管理システムを導入する。
このシステムは、言語モデル(LM)であるRLと、農業技術移転決定支援システム(DSSAT)によって促進される作物シミュレーションを一意に組み合わせている。
我々は、特に深層Qネットワークである深部RLを用いて、シミュレータから多数の状態変数を観測として処理する管理ポリシーを訓練する。
我々のアプローチの新たな側面は、これらの状態変数をより情報的な言語に変換し、言語モデルが状態を理解し、最適な管理方法を探求する能力を促進することである。
実験結果から,LMは優れた学習能力を示すことが明らかとなった。
フロリダ (US) とサラゴサ (Spain) のトウモロコシ作物を用いたシミュレーション実験を通じて, LM は様々な評価基準の下で最先端のパフォーマンスを達成するだけでなく, 経済利益の49%以上を顕著に改善し, ベースライン法と比較して環境影響の低減を図っている。
私たちのコードは \url{https://github.com/jingwu6/LM_AG} で利用可能です。
関連論文リスト
- Adaptive Pruning for Large Language Models with Structural Importance Awareness [66.2690963378878]
大規模言語モデル(LLM)は言語理解と生成能力を大幅に改善した。
LLMは、高い計算およびストレージリソース要求のため、リソース制約のあるエッジデバイスにデプロイするのは難しい。
モデル性能を維持しつつ,計算コストとメモリコストを大幅に削減する構造的適応型プルーニング(SAAP)を提案する。
論文 参考訳(メタデータ) (2024-12-19T18:08:04Z) - CROPS: A Deployable Crop Management System Over All Possible State Availabilities [11.831002170207547]
デプロイ可能な textbfCRop 管理システム textbfOver all textbfPossible textbfState Availability (CROPS) を提案する。
論文 参考訳(メタデータ) (2024-11-09T02:06:09Z) - A Comparative Study of Deep Reinforcement Learning for Crop Production Management [13.123171643387668]
適応的な作物管理政策を開発するための有望なツールとして強化学習(RL)が登場している。
ジム-DSSATの作物モデル環境において, 作物管理, PPO, 深度Q-networks (DQN) に最も広く利用されているシミュレータの1つが, 有望な結果を示している。
本研究では,PPOとDQNを,体育DSSAT環境によって提供される3つのRLタスクの静的ベースラインポリシー(肥料化,灌水,混合管理)に対して評価した。
論文 参考訳(メタデータ) (2024-11-06T18:35:51Z) - LMGT: Optimizing Exploration-Exploitation Balance in Reinforcement Learning through Language Model Guided Trade-offs [27.014415210732103]
強化学習のための新しいサンプル効率フレームワークである textbfLanguage textbfModel textbfGuided textbfTrade-offs (textbfLMGT) を紹介する。
論文 参考訳(メタデータ) (2024-09-07T07:40:43Z) - Supervised Pretraining Can Learn In-Context Reinforcement Learning [96.62869749926415]
本稿では,意思決定問題における変換器の文脈内学習能力について検討する。
本稿では,変換器が最適動作を予測する教師付き事前学習法であるDPT(Decision-Pretrained Transformer)を導入,研究する。
事前学習した変換器は、オンラインと保守主義の両方をオフラインで探索することで、コンテキスト内における様々なRL問題の解決に利用できる。
論文 参考訳(メタデータ) (2023-06-26T17:58:50Z) - Optimizing Crop Management with Reinforcement Learning and Imitation
Learning [9.69704937572711]
我々は,Nの施肥と灌水を,強化学習(RL),模倣学習(IL),作物シミュレーションを通じて同時に最適化するインテリジェントな作物管理システムを提案する。
フロリダ州のトウモロコシを用いたケーススタディの実験を行い,シミュレーションにおけるトウモロコシ管理ガイドラインとの比較を行った。
完全かつ部分的な観察の下で訓練された政策は、より良い結果をもたらす。その結果、より利益が上がり、環境への影響も小さくなる。
論文 参考訳(メタデータ) (2022-09-20T20:48:52Z) - Can Offline Reinforcement Learning Help Natural Language Understanding? [31.788133426611587]
オフライン強化学習(RL)と言語モデリング(LM)の関連性について検討する。
RLとLMは、局所的および長期的依存に依存する現在の状態と以前の状態に基づいて、次の状態を予測するのに類似している。
実験結果から, RL事前学習モデルでは, LM学習目標を用いたモデルと比較すると, 性能が良好であることが示唆された。
論文 参考訳(メタデータ) (2022-09-15T02:55:10Z) - Efficient Model-based Multi-agent Reinforcement Learning via Optimistic
Equilibrium Computation [93.52573037053449]
H-MARL (Hallucinated Multi-Agent Reinforcement Learning) は,環境と数回交流した後の平衡政策を学習する。
自律運転シミュレーションベンチマークにおいて,本手法を実験的に実証した。
論文 参考訳(メタデータ) (2022-03-14T17:24:03Z) - Mask-based Latent Reconstruction for Reinforcement Learning [58.43247393611453]
マスクをベースとした遅延再構成(MLR)は,空間的および時間的マスキング画素を用いた観測から潜在空間の完全な状態表現を予測するために提案される。
広汎な実験により,MLRは深部強化学習における試料効率を著しく向上させることが示された。
論文 参考訳(メタデータ) (2022-01-28T13:07:11Z) - Exploratory State Representation Learning [63.942632088208505]
本稿では,XSRL(eXploratory State Representation Learning)と呼ばれる新しい手法を提案する。
一方、コンパクトな状態表現と、その表現から不可解な情報を除去するために使用される状態遷移推定器を共同で学習する。
一方、逆モデルを継続的に訓練し、このモデルの予測誤差に$k$-stepの学習促進ボーナスを加え、発見ポリシーの目的を形成する。
論文 参考訳(メタデータ) (2021-09-28T10:11:07Z) - RL-CycleGAN: Reinforcement Learning Aware Simulation-To-Real [74.45688231140689]
本稿では、画像翻訳におけるRL-scene整合性損失を導入し、画像に関連付けられたQ値に対して変換操作が不変であることを保証する。
RL-CycleGANは実世界のシミュレーションから実世界への変換による強化学習のための新しい手法である。
論文 参考訳(メタデータ) (2020-06-16T08:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。