論文の概要: Breeding Programs Optimization with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2406.03932v1
- Date: Thu, 6 Jun 2024 10:17:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 15:19:49.567336
- Title: Breeding Programs Optimization with Reinforcement Learning
- Title(参考訳): 強化学習による育種プログラム最適化
- Authors: Omar G. Younis, Luca Corinzia, Ioannis N. Athanasiadis, Andreas Krause, Joachim M. Buhmann, Matteo Turchetta,
- Abstract要約: 本稿では,シミュレートされた作物育種プログラムの最適化にReinforcement Learning (RL) を用いることを提案する。
RLに基づく育種アルゴリズムをベンチマークするために、Gym環境のスイートを導入する。
この研究は、シリコでシミュレートされた場合の遺伝的ゲインの観点から、標準手法よりもRL手法の方が優れていることを示した。
- 参考スコア(独自算出の注目度): 41.75807702905971
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Crop breeding is crucial in improving agricultural productivity while potentially decreasing land usage, greenhouse gas emissions, and water consumption. However, breeding programs are challenging due to long turnover times, high-dimensional decision spaces, long-term objectives, and the need to adapt to rapid climate change. This paper introduces the use of Reinforcement Learning (RL) to optimize simulated crop breeding programs. RL agents are trained to make optimal crop selection and cross-breeding decisions based on genetic information. To benchmark RL-based breeding algorithms, we introduce a suite of Gym environments. The study demonstrates the superiority of RL techniques over standard practices in terms of genetic gain when simulated in silico using real-world genomic maize data.
- Abstract(参考訳): 作物の育種は農業の生産性向上に不可欠であり、土地使用量、温室効果ガス排出量、水消費を減少させる可能性がある。
しかし、長期の越冬期間、高次元の意思決定空間、長期的目標、急激な気候変動への適応の必要性により、繁殖プログラムは困難である。
本稿では,シミュレートされた作物育種プログラムの最適化にReinforcement Learning (RL) を用いることを提案する。
RLエージェントは、遺伝的情報に基づいて最適な作物の選択と交配決定を行うように訓練されている。
RLベースの育種アルゴリズムをベンチマークするために、Gym環境のスイートを導入する。
この研究は、実世界のゲノムトウモロコシデータを用いてシリコでシリコを模擬した場合、遺伝的利益の観点から、標準的手法よりもRL技術の方が優れていることを示した。
関連論文リスト
- A Comparative Study of Deep Reinforcement Learning for Crop Production Management [13.123171643387668]
適応的な作物管理政策を開発するための有望なツールとして強化学習(RL)が登場している。
ジム-DSSATの作物モデル環境において, 作物管理, PPO, 深度Q-networks (DQN) に最も広く利用されているシミュレータの1つが, 有望な結果を示している。
本研究では,PPOとDQNを,体育DSSAT環境によって提供される3つのRLタスクの静的ベースラインポリシー(肥料化,灌水,混合管理)に対して評価した。
論文 参考訳(メタデータ) (2024-11-06T18:35:51Z) - LSTM Autoencoder-based Deep Neural Networks for Barley Genotype-to-Phenotype Prediction [16.99449054451577]
そこで本研究では,オオムギの開花時期と収量推定のために,オオムギの遺伝子型からフェノタイプへの予測のためのLSTMオートエンコーダを用いた新しいモデルを提案する。
我々のモデルは、複雑な高次元農業データセットを扱う可能性を示す他のベースライン手法よりも優れていた。
論文 参考訳(メタデータ) (2024-07-21T16:07:43Z) - A Benchmark Environment for Offline Reinforcement Learning in Racing Games [54.83171948184851]
オフライン強化学習(英語: Offline Reinforcement Learning、ORL)は、従来の強化学習(RL)の高サンプリング複雑さを減らすための有望なアプローチである。
本稿では,ORL研究のための新しい環境であるOfflineManiaを紹介する。
TrackManiaシリーズにインスパイアされ、Unity 3Dゲームエンジンで開発された。
論文 参考訳(メタデータ) (2024-07-12T16:44:03Z) - Machine Learning-based Nutrient Application's Timeline Recommendation
for Smart Agriculture: A Large-Scale Data Mining Approach [0.0]
不正確な肥料の用途の決定は、コストのかかる結果をもたらし、食糧生産を妨げ、環境に害を与える可能性がある。
そこで本研究では, 年間を通じて必要な肥料量を決定することにより, 栄養素の応用を予測する方法を提案する。
提案手法は, 費用対効果と環境に優しい農業を促進するため, 気象条件と土壌特性に基づく肥料量の調整を推奨する。
論文 参考訳(メタデータ) (2023-10-18T15:37:19Z) - Hybrid Reinforcement Learning for Optimizing Pump Sustainability in
Real-World Water Distribution Networks [55.591662978280894]
本稿では,実世界の配水ネットワーク(WDN)のリアルタイム制御を強化するために,ポンプスケジューリング最適化問題に対処する。
我々の主な目的は、エネルギー消費と運用コストを削減しつつ、物理的な運用上の制約を遵守することである。
進化に基づくアルゴリズムや遺伝的アルゴリズムのような伝統的な最適化手法は、収束保証の欠如によってしばしば不足する。
論文 参考訳(メタデータ) (2023-10-13T21:26:16Z) - Optimizing Nitrogen Management with Deep Reinforcement Learning and Crop
Simulations [11.576438685465797]
窒素 (N) 管理は土壌の肥大化と作物生産の維持に重要であり, 負の環境影響を最小限に抑えるが, 最適化は困難である。
本稿では,深部強化学習(RL)を用いた知的N管理システムと農業技術移転意思決定支援システム(DSSAT)を用いた作物シミュレーションを提案する。
次に、シミュレーションされた作物環境とRLエージェントとの日々のインタラクションを可能にするGym-DSSATインタフェースと、Q-networkとソフトアクタ-クリティックアルゴリズムを用いて管理ポリシーをトレーニングする。
論文 参考訳(メタデータ) (2022-04-21T20:26:41Z) - Deceive D: Adaptive Pseudo Augmentation for GAN Training with Limited
Data [125.7135706352493]
GAN(Generative Adversarial Network)は、高忠実度画像を合成するために、訓練に十分なデータを必要とする。
近年の研究では、差別者の過度な適合により、限られたデータでGANを訓練することは困難であることが示されている。
本稿では,APA (Adaptive Pseudo Augmentation) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-12T18:13:45Z) - Machine Learning aided Crop Yield Optimization [0.0]
我々は,OpenAI Gymインタフェースを用いた作物シミュレーション環境を提案し,生産効率を最適化するために,最新の深部強化学習(DRL)アルゴリズムを適用した。
DRLアルゴリズムは,水や肥料の使用量などの制約要因を最小化しつつ,収穫量の最適化を支援する新しい政策やアプローチの発見に有用であることを示す。
論文 参考訳(メタデータ) (2021-11-01T14:14:11Z) - Towards Standardizing Reinforcement Learning Approaches for Stochastic
Production Scheduling [77.34726150561087]
強化学習はスケジューリングの問題を解決するのに使える。
既存の研究は、コードが利用できない複雑なシミュレーションに依存している。
から選ぶべきRLの設計の広大な配列があります。
モデル記述の標準化 - 生産セットアップとRL設計の両方 - と検証スキームは前提条件です。
論文 参考訳(メタデータ) (2021-04-16T16:07:10Z) - Learning from Data to Optimize Control in Precision Farming [77.34726150561087]
特集は、統計的推論、機械学習、精密農業のための最適制御における最新の発展を示す。
衛星の位置決めとナビゲーションとそれに続くInternet-of-Thingsは、リアルタイムで農業プロセスの最適化に使用できる膨大な情報を生成する。
論文 参考訳(メタデータ) (2020-07-07T12:44:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。