論文の概要: Optimizing Navigation And Chemical Application in Precision Agriculture With Deep Reinforcement Learning And Conditional Action Tree
- arxiv url: http://arxiv.org/abs/2503.17985v1
- Date: Sun, 23 Mar 2025 08:38:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:34:28.591999
- Title: Optimizing Navigation And Chemical Application in Precision Agriculture With Deep Reinforcement Learning And Conditional Action Tree
- Title(参考訳): 深部強化学習と条件付き行動木を用いた精密農業におけるナビゲーションと化学応用の最適化
- Authors: Mahsa Khosravi, Zhanhong Jiang, Joshua R Waite, Sarah Jonesc, Hernan Torres, Arti Singh, Baskar Ganapathysubramanian, Asheesh Kumar Singh, Soumik Sarkar,
- Abstract要約: 本稿では, 精密農業における生物ストレスのロボット管理のための, 強化学習に基づく新しい計画手法を提案する。
このフレームワークは、条件付きアクションマスキングを備えた階層的な意思決定構造を用いており、高いレベルのアクションがロボットの探索を導く。
- 参考スコア(独自算出の注目度): 6.642314074960705
- License:
- Abstract: This paper presents a novel reinforcement learning (RL)-based planning scheme for optimized robotic management of biotic stresses in precision agriculture. The framework employs a hierarchical decision-making structure with conditional action masking, where high-level actions direct the robot's exploration, while low-level actions optimize its navigation and efficient chemical spraying in affected areas. The key objectives of optimization include improving the coverage of infected areas with limited battery power and reducing chemical usage, thus preventing unnecessary spraying of healthy areas of the field. Our numerical experimental results demonstrate that the proposed method, Hierarchical Action Masking Proximal Policy Optimization (HAM-PPO), significantly outperforms baseline practices, such as LawnMower navigation + indiscriminate spraying (Carpet Spray), in terms of yield recovery and resource efficiency. HAM-PPO consistently achieves higher yield recovery percentages and lower chemical costs across a range of infection scenarios. The framework also exhibits robustness to observation noise and generalizability under diverse environmental conditions, adapting to varying infection ranges and spatial distribution patterns.
- Abstract(参考訳): 本稿では, 精密農業における生物ストレスのロボット管理を最適化するための新しい強化学習(RL)に基づく計画手法を提案する。
このフレームワークは、条件付きアクションマスキングを備えた階層的な意思決定構造を採用しており、高レベルのアクションがロボットの探索を指示し、低レベルのアクションがそのナビゲーションを最適化し、影響を受ける領域で効率的な化学噴霧を行う。
最適化の鍵となる目的は、感染した地域を限られたバッテリーでカバーし、化学的使用を減らし、フィールドの健康な地域を不要に噴霧するのを防ぐことである。
提案手法であるHAM-PPO(Hierarchical Action Masking Proximal Policy Optimization)は,LawnMower Navigation + indiscriminate Spraying (Carpet Spray) などのベースラインの実践を,収率回復と資源効率の観点から著しく上回っていることを示す。
HAM-PPOは、様々な感染シナリオにおいて、高い収率の回復率と化学コストの低下を一貫して達成する。
このフレームワークはまた、様々な環境条件下での観測ノイズや一般化可能性に対する堅牢性を示し、様々な感染範囲や空間分布パターンに適応する。
関連論文リスト
- DrugImproverGPT: A Large Language Model for Drug Optimization with Fine-Tuning via Structured Policy Optimization [53.27954325490941]
大規模言語モデル(LLM)の微調整は、特定の目的に向けて結果を生成するために不可欠である。
本研究は,薬物最適化LSMに基づく生成モデルを微調整するための新しい強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-02-11T04:00:21Z) - CROPS: A Deployable Crop Management System Over All Possible State Availabilities [11.831002170207547]
デプロイ可能な textbfCRop 管理システム textbfOver all textbfPossible textbfState Availability (CROPS) を提案する。
論文 参考訳(メタデータ) (2024-11-09T02:06:09Z) - A Comparative Study of Deep Reinforcement Learning for Crop Production Management [13.123171643387668]
適応的な作物管理政策を開発するための有望なツールとして強化学習(RL)が登場している。
ジム-DSSATの作物モデル環境において, 作物管理, PPO, 深度Q-networks (DQN) に最も広く利用されているシミュレータの1つが, 有望な結果を示している。
本研究では,PPOとDQNを,体育DSSAT環境によって提供される3つのRLタスクの静的ベースラインポリシー(肥料化,灌水,混合管理)に対して評価した。
論文 参考訳(メタデータ) (2024-11-06T18:35:51Z) - Hierarchical Preference Optimization: Learning to achieve goals via feasible subgoals prediction [71.81851971324187]
本研究は階層型強化学習(HRL)の新しいアプローチである階層型優先度最適化(HPO)を導入する。
HPOは、複雑なロボット制御タスクを解く際に、非定常性と非実用的なサブゴール生成の問題に対処する。
挑戦的なロボットナビゲーションと操作タスクの実験はHPOの素晴らしいパフォーマンスを示しており、ベースラインよりも最大35%改善されている。
論文 参考訳(メタデータ) (2024-11-01T04:58:40Z) - AgGym: An agricultural biotic stress simulation environment for ultra-precision management planning [8.205412609306713]
本稿では, 現場における生物ストレスの拡散をモデル化するための, モジュラー, 作物, ストレスシミュレーションフレームワークであるAgGymを紹介する。
本稿では,AgGymを限られたデータでカスタマイズし,各種の生物ストレス条件下での収量分布をシミュレートできることを示す。
提案フレームワークは,生物ストレス管理のスケジュールを,機会的,規範的に基づく個人化された意思決定支援を実現する。
論文 参考訳(メタデータ) (2024-09-01T14:55:45Z) - The Effect of Different Optimization Strategies to Physics-Constrained
Deep Learning for Soil Moisture Estimation [5.804881282638357]
水輸送と水感知信号に関する物理に基づく原理を統合するために,物理制約付き深層学習(P-DL)フレームワークを提案する。
実験的な収束関数Adamsは、ミニバッチとフルバッチのトレーニングの両方において、他の最適化手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-13T00:32:30Z) - Airport take-off and landing optimization through genetic algorithms [55.2480439325792]
本研究は, 航空機の運転における汚染問題に対処し, ゲート割り当てと滑走路スケジューリングを同時に最適化することに焦点を当てた。
本研究は,航空機の離陸・着陸時の燃料燃焼による汚染を最小化するための,革新的な遺伝的アルゴリズムに基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-29T14:53:55Z) - Learning Regions of Interest for Bayesian Optimization with Adaptive
Level-Set Estimation [84.0621253654014]
本稿では,高信頼領域を適応的にフィルタするBALLETというフレームワークを提案する。
理論的には、BALLETは探索空間を効率的に縮小することができ、標準BOよりも厳密な後悔を示すことができる。
論文 参考訳(メタデータ) (2023-07-25T09:45:47Z) - Diverse Policy Optimization for Structured Action Space [59.361076277997704]
エネルギーベースモデル(EBM)として構造化された行動空間における政策をモデル化するための多元的政策最適化(DPO)を提案する。
新しい強力な生成モデルであるGFlowNetは、効率よく多様なEMMベースのポリシーサンプリングとして導入されている。
ATSCとBattleベンチマークの実験では、DPOが驚くほど多様なポリシーを効率的に発見できることが示されている。
論文 参考訳(メタデータ) (2023-02-23T10:48:09Z) - Learning Space Partitions for Path Planning [54.475949279050596]
PlaLaMは2次元ナビゲーションタスクにおける既存の経路計画手法よりも優れており、特に難解な局所最適化の存在下では優れている。
これらは高マルチモーダルな実世界のタスクに移行し、コンパイラフェーズでは最大245%、分子設計では最大0.4の強いベースラインを0-1スケールで上回ります。
論文 参考訳(メタデータ) (2021-06-19T18:06:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。