論文の概要: From Seedling to Harvest: The GrowingSoy Dataset for Weed Detection in Soy Crops via Instance Segmentation
- arxiv url: http://arxiv.org/abs/2406.00313v2
- Date: Wed, 5 Jun 2024 03:22:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 12:09:17.631732
- Title: From Seedling to Harvest: The GrowingSoy Dataset for Weed Detection in Soy Crops via Instance Segmentation
- Title(参考訳): 種苗からハーベスト:インスタンスセグメンテーションによる大豆の雑草検出用成長大豆データセット
- Authors: Raul Steinmetz, Victor A. Kich, Henrique Krever, Joao D. Rigo Mazzarolo, Ricardo B. Grando, Vinicius Marini, Celio Trois, Ard Nieuwenhuizen,
- Abstract要約: 我々は、ニューラルネットワークを訓練し、インスタンスセグメンテーションを通して雑草や大豆を検知する包括的データセットを導入する。
我々のデータセットは、大豆の生育の様々な段階をカバーし、雑草の侵入の影響に関する時系列的な視点を提供する。
また、このデータセットでトレーニングされたアートモデルの6つの状態を提供し、プランテーションプロセスのすべての段階で大豆や雑草を理解し、検出することができます。
- 参考スコア(独自算出の注目度): 0.2605569739850177
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning, particularly Convolutional Neural Networks (CNNs), has gained significant attention for its effectiveness in computer vision, especially in agricultural tasks. Recent advancements in instance segmentation have improved image classification accuracy. In this work, we introduce a comprehensive dataset for training neural networks to detect weeds and soy plants through instance segmentation. Our dataset covers various stages of soy growth, offering a chronological perspective on weed invasion's impact, with 1,000 meticulously annotated images. We also provide 6 state of the art models, trained in this dataset, that can understand and detect soy and weed in every stage of the plantation process. By using this dataset for weed and soy segmentation, we achieved a segmentation average precision of 79.1% and an average recall of 69.2% across all plant classes, with the YOLOv8X model. Moreover, the YOLOv8M model attained 78.7% mean average precision (mAp-50) in caruru weed segmentation, 69.7% in grassy weed segmentation, and 90.1% in soy plant segmentation.
- Abstract(参考訳): ディープラーニング、特に畳み込みニューラルネットワーク(CNN)は、コンピュータビジョン、特に農業タスクにおいてその有効性に大きな注目を集めている。
近年のインスタンスセグメンテーションの進歩により、画像分類精度が向上した。
本研究では,ニューラルネットワークを学習して雑草や大豆をインスタンスセグメンテーションで検出するための包括的データセットを提案する。
我々のデータセットは、大豆の生育の様々な段階をカバーし、1,000枚の微妙な注釈付き画像とともに、雑草の侵入の影響に関する時系列的な視点を提供する。
また、このデータセットでトレーニングされた6つの最先端モデルを提供し、プランテーションプロセスのすべての段階で大豆や雑草を理解し、検出することができます。
本データセットを雑草と大豆のセグメンテーションに使用することにより, セグメンテーション平均精度79.1%, 全植物種別平均リコール69.2%, YOLOv8Xモデルを用いて達成した。
さらに、YOLOv8Mモデルでは、カルー雑草における平均精度(mAp-50)が78.7%、草雑草では69.7%、大豆では90.1%に達した。
関連論文リスト
- A New Dataset and Comparative Study for Aphid Cluster Detection and Segmentation in Sorghum Fields [9.735484847744416]
アフィドの感染は小麦やソルガムの畑に大きな被害をもたらす主要な原因の1つである。
農家はしばしば、健康と環境に悪影響を及ぼす有害な農薬を非効率に利用する。
我々は,アフィドクラスタの検出とセグメンテーションのための大規模なマルチスケールデータセットを開発した。
論文 参考訳(メタデータ) (2024-05-07T13:27:58Z) - HarvestNet: A Dataset for Detecting Smallholder Farming Activity Using
Harvest Piles and Remote Sensing [50.4506590177605]
HarvestNetは、2020-2023年のエチオピアのティグレイとアムハラの農場の存在をマッピングするためのデータセットである。
本研究は,多くの小作システムの特徴ある収穫杭の検出に基づく新しい手法を提案する。
本研究は, 農作物のリモートセンシングが, 食品の安全地帯において, よりタイムリーかつ正確な農地評価に寄与することが示唆された。
論文 参考訳(メタデータ) (2023-08-23T11:03:28Z) - Agave crop segmentation and maturity classification with deep learning
data-centric strategies using very high-resolution satellite imagery [101.18253437732933]
超高解像度衛星画像を用いたAgave tequilana Weber azul crop segmentation and mature classificationを提案する。
実世界の深層学習問題を,作物の選別という非常に具体的な文脈で解決する。
結果として得られた正確なモデルにより、大規模地域で生産予測を行うことができる。
論文 参考訳(メタデータ) (2023-03-21T03:15:29Z) - Transferring learned patterns from ground-based field imagery to predict
UAV-based imagery for crop and weed semantic segmentation in precision crop
farming [3.95486899327898]
雑草の区分けのために,UAVのフィールド画像と空中画像の両方を予測できる深層畳み込みネットワークを開発した。
ネットワーク学習プロセスは、浅い層と深い層のフィーチャーマップによって視覚化される。
この研究は、深層畳み込みニューラルネットワークが、フィールド画像と空中画像の両方から雑草を分類するために使用できることを示した。
論文 参考訳(メタデータ) (2022-10-20T19:25:06Z) - End-to-end deep learning for directly estimating grape yield from
ground-based imagery [53.086864957064876]
本研究は, ブドウ畑の収量推定に深層学習と併用した近位画像の応用を実証する。
オブジェクト検出、CNN回帰、トランスフォーマーモデルという3つのモデルアーキテクチャがテストされた。
本研究は,ブドウの収量予測における近位画像と深層学習の適用性を示した。
論文 参考訳(メタデータ) (2022-08-04T01:34:46Z) - GrowliFlower: An image time series dataset for GROWth analysis of
cauLIFLOWER [2.8247971782279615]
この記事では、2020年と2021年に取得した0.39と0.60haの2つの監視されたカリフラワーフィールドのイメージベースUAV時系列データセットであるGrowliFlowerについて述べる。
このデータセットは、約14,000個の植物座標が導出され提供されるRGBおよび多スペクトル正光を含む。
このデータセットは、発生段階、植物、カリフラワーサイズを含む740種の植物の表現型形質を収集する。
論文 参考訳(メタデータ) (2022-04-01T08:56:59Z) - Using depth information and colour space variations for improving
outdoor robustness for instance segmentation of cabbage [62.997667081978825]
本研究は, 異なる環境条件下での作物のインスタンスセグメンテーションの改善に焦点をあてる。
深度情報と異なる色空間表現の影響を分析した。
その結果,色情報と組み合わせることでセグメンテーション精度が7.1%向上した。
論文 参考訳(メタデータ) (2021-03-31T09:19:12Z) - Extracting Pasture Phenotype and Biomass Percentages using Weakly
Supervised Multi-target Deep Learning on a Small Dataset [10.007844164505157]
乳製品産業は牛の飼料としてクローバーと草を使う。
草とクローバーのバイオマス収量の推定は賢い決定を可能にする。
データ拡張と転送学習を適用することは、異なる植物種のマルチターゲットバイオマスパーセンテージの予測に効果的です。
論文 参考訳(メタデータ) (2021-01-08T19:41:46Z) - A CNN Approach to Simultaneously Count Plants and Detect Plantation-Rows
from UAV Imagery [56.10033255997329]
畳み込みニューラルネットワーク(CNN)を用いた新しい深層学習手法を提案する。
高度に乾燥したプランテーション構成を考慮した植物を数えながら、同時にプランテーション・ロウを検出し、配置する。
提案手法は、異なる種類の作物のUAV画像において、植物と植物をカウントおよびジオロケートするための最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-12-31T18:51:17Z) - Pollen13K: A Large Scale Microscope Pollen Grain Image Dataset [63.05335933454068]
この研究は、1万3千以上の天体を含む最初の大規模花粉画像データセットを提示する。
本稿では, エアロバイオロジカルサンプリング, 顕微鏡画像取得, 物体検出, セグメンテーション, ラベル付けなど, 採用データ取得のステップに注目した。
論文 参考訳(メタデータ) (2020-07-09T10:33:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。