論文の概要: A CNN Approach to Simultaneously Count Plants and Detect Plantation-Rows
from UAV Imagery
- arxiv url: http://arxiv.org/abs/2012.15827v3
- Date: Sun, 14 Feb 2021 18:02:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-17 17:06:21.545127
- Title: A CNN Approach to Simultaneously Count Plants and Detect Plantation-Rows
from UAV Imagery
- Title(参考訳): 植物を同時に数えるCNNアプローチとUAV画像からの植林地検出
- Authors: Lucas Prado Osco, Mauro dos Santos de Arruda, Diogo Nunes
Gon\c{c}alves, Alexandre Dias, Juliana Batistoti, Mauricio de Souza, Felipe
David Georges Gomes, Ana Paula Marques Ramos, L\'ucio Andr\'e de Castro
Jorge, Veraldo Liesenberg, Jonathan Li, Lingfei Ma, Jos\'e Marcato Junior,
Wesley Nunes Gon\c{c}alves
- Abstract要約: 畳み込みニューラルネットワーク(CNN)を用いた新しい深層学習手法を提案する。
高度に乾燥したプランテーション構成を考慮した植物を数えながら、同時にプランテーション・ロウを検出し、配置する。
提案手法は、異なる種類の作物のUAV画像において、植物と植物をカウントおよびジオロケートするための最先端の性能を達成した。
- 参考スコア(独自算出の注目度): 56.10033255997329
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we propose a novel deep learning method based on a
Convolutional Neural Network (CNN) that simultaneously detects and geolocates
plantation-rows while counting its plants considering highly-dense plantation
configurations. The experimental setup was evaluated in a cornfield with
different growth stages and in a Citrus orchard. Both datasets characterize
different plant density scenarios, locations, types of crops, sensors, and
dates. A two-branch architecture was implemented in our CNN method, where the
information obtained within the plantation-row is updated into the plant
detection branch and retro-feed to the row branch; which are then refined by a
Multi-Stage Refinement method. In the corn plantation datasets (with both
growth phases, young and mature), our approach returned a mean absolute error
(MAE) of 6.224 plants per image patch, a mean relative error (MRE) of 0.1038,
precision and recall values of 0.856, and 0.905, respectively, and an F-measure
equal to 0.876. These results were superior to the results from other deep
networks (HRNet, Faster R-CNN, and RetinaNet) evaluated with the same task and
dataset. For the plantation-row detection, our approach returned precision,
recall, and F-measure scores of 0.913, 0.941, and 0.925, respectively. To test
the robustness of our model with a different type of agriculture, we performed
the same task in the citrus orchard dataset. It returned an MAE equal to 1.409
citrus-trees per patch, MRE of 0.0615, precision of 0.922, recall of 0.911, and
F-measure of 0.965. For citrus plantation-row detection, our approach resulted
in precision, recall, and F-measure scores equal to 0.965, 0.970, and 0.964,
respectively. The proposed method achieved state-of-the-art performance for
counting and geolocating plants and plant-rows in UAV images from different
types of crops.
- Abstract(参考訳): 本稿では,高密度プランテーション構成を考慮したプラントを数えながら,同時にプランテーション群を検出・位置決めする畳み込みニューラルネットワーク(CNN)に基づく新しい深層学習手法を提案する。
生育段階の異なるトウモロコシ畑とカンキツ果樹園において実験セットアップを評価した。
両方のデータセットは、異なる植物密度シナリオ、場所、作物の種類、センサー、日付を特徴付ける。
cnn法では,プランテーションロウ内で得られた情報を植物検出ブランチに更新し,行ブランチにレトロフィードし,多段階リファインメント法により精製した2分岐アーキテクチャを実装した。
コーンプランテーションデータセット(成長期,若年,成熟期ともに)では,画像パッチあたりの平均絶対誤差が6.224本,平均相対誤差が0.1038本,精度が0.856本,リコール値が0.905本,F値が0.876本であった。
これらの結果は、同じタスクとデータセットで評価された他のディープネットワーク(HRNet、Faster R-CNN、RetinaNet)よりも優れていた。
プランテーションロー検出では, 精度, リコール, F測定スコアが0.913, 0.941, 0.925であった。
異なるタイプの農業でモデルのロバスト性をテストするために、我々はcitrus orchardデータセットで同じタスクを実行しました。
1パッチあたり1.409シトラス・ツリー、mre 0.0615、精度0.922、リコール0.911、f-測定値0.965である。
カントラスプランテーションロー検出では, 精度, 再現率, f-測定値はそれぞれ0.965, 0.970, 0.964であった。
提案手法は, 異なる作物のuav画像において, 植物と植物群を計数し, 測地する技術として, 最先端の性能を得た。
関連論文リスト
- CMAViT: Integrating Climate, Managment, and Remote Sensing Data for Crop Yield Estimation with Multimodel Vision Transformers [0.0]
我々はCMAViT(Climate-Management Aware Vision Transformer)と呼ばれる深層学習に基づくマルチモデルを導入する。
CMAViTは、リモートセンシング画像と短期気象データを活用することにより、空間データと時間データの両方を統合する。
UNet-ConvLSTMのような従来のモデルよりも優れ、空間的変動のキャプチャと収差予測に優れています。
論文 参考訳(メタデータ) (2024-11-25T23:34:53Z) - Local Manifold Learning for No-Reference Image Quality Assessment [68.9577503732292]
No-Reference Image Quality Assessment(NR-IQA)のための、局所多様体学習とコントラスト学習を統合した革新的なフレームワークを提案する。
提案手法は,7つの標準データセットの最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-06-27T15:14:23Z) - Boosting Crop Classification by Hierarchically Fusing Satellite,
Rotational, and Contextual Data [0.0]
本研究では,複数年にわたる精度向上とロバスト性向上のためのモデルにマルチモーダル情報を融合する新しい手法を提案する。
このアプローチを評価するため、フランスとオランダで740万の農業パーセルの注釈付きデータセットを新たにリリースしました。
論文 参考訳(メタデータ) (2023-05-19T21:42:53Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - Transferring learned patterns from ground-based field imagery to predict
UAV-based imagery for crop and weed semantic segmentation in precision crop
farming [3.95486899327898]
雑草の区分けのために,UAVのフィールド画像と空中画像の両方を予測できる深層畳み込みネットワークを開発した。
ネットワーク学習プロセスは、浅い層と深い層のフィーチャーマップによって視覚化される。
この研究は、深層畳み込みニューラルネットワークが、フィールド画像と空中画像の両方から雑草を分類するために使用できることを示した。
論文 参考訳(メタデータ) (2022-10-20T19:25:06Z) - Comparing Machine Learning Techniques for Alfalfa Biomass Yield
Prediction [0.8808021343665321]
アルファルファの作物は 家畜の餌として 世界的に重要で 効率的な植え付けと収穫は 多くの産業に役立ちます
機械学習を用いてアルファルファやその他の作物の収量を予測する最近の研究は、有望であることが示されている。
これまでの取り組みでは、リモートセンシング、天気、植林、土壌データを使用して、収量予測のための機械学習モデルをトレーニングしていた。
論文 参考訳(メタデータ) (2022-10-20T13:00:33Z) - End-to-end deep learning for directly estimating grape yield from
ground-based imagery [53.086864957064876]
本研究は, ブドウ畑の収量推定に深層学習と併用した近位画像の応用を実証する。
オブジェクト検出、CNN回帰、トランスフォーマーモデルという3つのモデルアーキテクチャがテストされた。
本研究は,ブドウの収量予測における近位画像と深層学習の適用性を示した。
論文 参考訳(メタデータ) (2022-08-04T01:34:46Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - A Deep Learning Approach Based on Graphs to Detect Plantation Lines [16.76043873454695]
本稿では,UAVを用いたRGB画像における植林線検出のためのグラフに基づく深層学習手法を提案する。
提案手法は最先端のディープラーニング手法と比較した。
精度、リコール、F1スコアはそれぞれ98.7%、91.9%、95.1%だった。
論文 参考訳(メタデータ) (2021-02-05T14:56:42Z) - Two-View Fine-grained Classification of Plant Species [66.75915278733197]
本研究では,2視点の葉のイメージ表現に基づく新しい手法と,植物種の粒度認識のための階層的分類戦略を提案する。
シームズ畳み込みニューラルネットワークに基づく深度測定は、多数のトレーニングサンプルへの依存を減らし、新しい植物種に拡張性を持たせるために用いられる。
論文 参考訳(メタデータ) (2020-05-18T21:57:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。