論文の概要: Machine Learning aided Crop Yield Optimization
- arxiv url: http://arxiv.org/abs/2111.00963v1
- Date: Mon, 1 Nov 2021 14:14:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 16:20:47.582708
- Title: Machine Learning aided Crop Yield Optimization
- Title(参考訳): 機械学習による作物収量最適化
- Authors: Chace Ashcraft, Kiran Karra
- Abstract要約: 我々は,OpenAI Gymインタフェースを用いた作物シミュレーション環境を提案し,生産効率を最適化するために,最新の深部強化学習(DRL)アルゴリズムを適用した。
DRLアルゴリズムは,水や肥料の使用量などの制約要因を最小化しつつ,収穫量の最適化を支援する新しい政策やアプローチの発見に有用であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present a crop simulation environment with an OpenAI Gym interface, and
apply modern deep reinforcement learning (DRL) algorithms to optimize yield. We
empirically show that DRL algorithms may be useful in discovering new policies
and approaches to help optimize crop yield, while simultaneously minimizing
constraining factors such as water and fertilizer usage. We propose that this
hybrid plant modeling and data-driven approach for discovering new strategies
to optimize crop yield may help address upcoming global food demands due to
population expansion and climate change.
- Abstract(参考訳): 本稿では,openai体育館インタフェースを用いた作物シミュレーション環境を提案し,現代的深層強化学習(drl)アルゴリズムを用いて収率を最適化する。
DRLアルゴリズムは,水や肥料の使用量などの制約要因を最小化しつつ,収穫量の最適化を支援する新しい政策やアプローチの発見に有用であることを示す。
我々は、このハイブリッドプラントモデルとデータ駆動アプローチにより、作物収量を最適化する新しい戦略が、人口増加と気候変動による世界の食料需要に対応するのに役立つことを示唆する。
関連論文リスト
- LSTM Autoencoder-based Deep Neural Networks for Barley Genotype-to-Phenotype Prediction [16.99449054451577]
そこで本研究では,オオムギの開花時期と収量推定のために,オオムギの遺伝子型からフェノタイプへの予測のためのLSTMオートエンコーダを用いた新しいモデルを提案する。
我々のモデルは、複雑な高次元農業データセットを扱う可能性を示す他のベースライン手法よりも優れていた。
論文 参考訳(メタデータ) (2024-07-21T16:07:43Z) - Discovering Preference Optimization Algorithms with and for Large Language Models [50.843710797024805]
オフライン優先最適化は、LLM(Large Language Model)出力の品質を向上・制御するための重要な手法である。
我々は、人間の介入なしに、新しい最先端の選好最適化アルゴリズムを自動で発見する客観的発見を行う。
実験は、ロジスティックと指数的損失を適応的にブレンドする新しいアルゴリズムであるDiscoPOPの最先端性能を示す。
論文 参考訳(メタデータ) (2024-06-12T16:58:41Z) - Breeding Programs Optimization with Reinforcement Learning [41.75807702905971]
本稿では,シミュレートされた作物育種プログラムの最適化にReinforcement Learning (RL) を用いることを提案する。
RLに基づく育種アルゴリズムをベンチマークするために、Gym環境のスイートを導入する。
この研究は、シリコでシミュレートされた場合の遺伝的ゲインの観点から、標準手法よりもRL手法の方が優れていることを示した。
論文 参考訳(メタデータ) (2024-06-06T10:17:51Z) - Data-Efficient Task Generalization via Probabilistic Model-based Meta
Reinforcement Learning [58.575939354953526]
PACOH-RLはメタ強化学習(Meta-RL)アルゴリズムである。
既存のMeta-RLメソッドは豊富なメタ学習データを必要とし、ロボット工学などの設定で適用性を制限する。
実験の結果,PACOH-RLはモデルベースRLおよびモデルベースMeta-RLベースラインよりも高い性能を示し,新しい動的条件に適応することがわかった。
論文 参考訳(メタデータ) (2023-11-13T18:51:57Z) - Hybrid Reinforcement Learning for Optimizing Pump Sustainability in
Real-World Water Distribution Networks [55.591662978280894]
本稿では,実世界の配水ネットワーク(WDN)のリアルタイム制御を強化するために,ポンプスケジューリング最適化問題に対処する。
我々の主な目的は、エネルギー消費と運用コストを削減しつつ、物理的な運用上の制約を遵守することである。
進化に基づくアルゴリズムや遺伝的アルゴリズムのような伝統的な最適化手法は、収束保証の欠如によってしばしば不足する。
論文 参考訳(メタデータ) (2023-10-13T21:26:16Z) - A reinforcement learning strategy for p-adaptation in high order solvers [0.0]
強化学習(Reinforcement Learning, RL)は、意思決定プロセスを自動化するための有望なアプローチである。
本稿では,高次解法を用いる場合の計算メッシュの順序を最適化するためのRL手法の適用について検討する。
論文 参考訳(メタデータ) (2023-06-14T07:01:31Z) - Maximize to Explore: One Objective Function Fusing Estimation, Planning,
and Exploration [87.53543137162488]
我々はtextttMEX というオンライン強化学習(オンラインRL)フレームワークを提案する。
textttMEXは、自動的に探索エクスプロイトのバランスをとりながら、見積もりと計画コンポーネントを統合する。
様々な MuJoCo 環境では,ベースラインを安定的なマージンで上回り,十分な報酬を得られる。
論文 参考訳(メタデータ) (2023-05-29T17:25:26Z) - Risk-averse Stochastic Optimization for Farm Management Practices and
Cultivar Selection Under Uncertainty [8.427937898153779]
目的プログラミング関数における条件付き値-リスクを用いた不確実性の下で最適化フレームワークを開発する。
ケーススタディとして、USコーンベルトの25箇所に作物モデルを構築しました。
その結果,提案モデルが気象と最適決定との間に有意な関係を生じさせることが示唆された。
論文 参考訳(メタデータ) (2022-07-17T01:14:43Z) - Towards Deployment-Efficient Reinforcement Learning: Lower Bound and
Optimality [141.89413461337324]
展開効率は、強化学習(RL)の多くの実世界の応用にとって重要な基準である
本稿では,「制約付き最適化」の観点から,デプロイ効率の高いRL(DE-RL)の理論的定式化を提案する。
論文 参考訳(メタデータ) (2022-02-14T01:31:46Z) - Deceive D: Adaptive Pseudo Augmentation for GAN Training with Limited
Data [125.7135706352493]
GAN(Generative Adversarial Network)は、高忠実度画像を合成するために、訓練に十分なデータを必要とする。
近年の研究では、差別者の過度な適合により、限られたデータでGANを訓練することは困難であることが示されている。
本稿では,APA (Adaptive Pseudo Augmentation) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-12T18:13:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。