論文の概要: Transferring learned patterns from ground-based field imagery to predict
UAV-based imagery for crop and weed semantic segmentation in precision crop
farming
- arxiv url: http://arxiv.org/abs/2210.11545v1
- Date: Thu, 20 Oct 2022 19:25:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 13:58:53.139802
- Title: Transferring learned patterns from ground-based field imagery to predict
UAV-based imagery for crop and weed semantic segmentation in precision crop
farming
- Title(参考訳): 精密農業における土壌画像からの学習パターンの移動と農作物のUAV画像と雑草セマンティックセグメンテーションの予測
- Authors: Junfeng Gao, Wenzhi Liao, David Nuyttens, Peter Lootens, Erik
Alexandersson, Jan Pieters
- Abstract要約: 雑草の区分けのために,UAVのフィールド画像と空中画像の両方を予測できる深層畳み込みネットワークを開発した。
ネットワーク学習プロセスは、浅い層と深い層のフィーチャーマップによって視覚化される。
この研究は、深層畳み込みニューラルネットワークが、フィールド画像と空中画像の両方から雑草を分類するために使用できることを示した。
- 参考スコア(独自算出の注目度): 3.95486899327898
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Weed and crop segmentation is becoming an increasingly integral part of
precision farming that leverages the current computer vision and deep learning
technologies. Research has been extensively carried out based on images
captured with a camera from various platforms. Unmanned aerial vehicles (UAVs)
and ground-based vehicles including agricultural robots are the two popular
platforms for data collection in fields. They all contribute to site-specific
weed management (SSWM) to maintain crop yield. Currently, the data from these
two platforms is processed separately, though sharing the same semantic objects
(weed and crop). In our paper, we have developed a deep convolutional network
that enables to predict both field and aerial images from UAVs for weed
segmentation and mapping with only field images provided in the training phase.
The network learning process is visualized by feature maps at shallow and deep
layers. The results show that the mean intersection of union (IOU) values of
the segmentation for the crop (maize), weeds, and soil background in the
developed model for the field dataset are 0.744, 0.577, 0.979, respectively,
and the performance of aerial images from an UAV with the same model, the IOU
values of the segmentation for the crop (maize), weeds and soil background are
0.596, 0.407, and 0.875, respectively. To estimate the effect on the use of
plant protection agents, we quantify the relationship between herbicide
spraying saving rate and grid size (spraying resolution) based on the predicted
weed map. The spraying saving rate is up to 90% when the spraying resolution is
at 1.78 x 1.78 cm2. The study shows that the developed deep convolutional
neural network could be used to classify weeds from both field and aerial
images and delivers satisfactory results.
- Abstract(参考訳): 雑草と作物のセグメンテーションは、現在のコンピュータビジョンとディープラーニング技術を活用する精密農業において、ますます不可欠な部分になりつつある。
様々なプラットフォームからカメラで撮影した画像に基づいて研究が盛んに行われている。
無人航空機(UAV)と農業用ロボットを含む地上用車両は、フィールドでデータ収集を行う2つの一般的なプラットフォームである。
これらはすべて、収穫量を維持するために、サイト固有の雑草管理(SSWM)に貢献する。
現在、これら2つのプラットフォームからのデータは別々に処理されているが、同じ意味オブジェクト(雑草と作物)を共有している。
そこで本研究では,草地分割とマッピングのためのUAVからのフィールド画像と空中画像の両方を,トレーニング段階で提供されるフィールド画像のみを用いて予測できる深部畳み込みネットワークを開発した。
ネットワーク学習プロセスは、浅い層と深い層でフィーチャーマップによって可視化される。
その結果, フィールドデータセットの開発モデルにおいて, 作物のセグメンテーション(トウモロコシ), 雑草, 土壌背景の平均和(iou)値はそれぞれ0.744, 0.577, 0.979であり, 同じモデルを用いたuavからの空中画像の性能, 作物セグメンテーション(トウモロコシ), 雑草, 土壌背景のiou値はそれぞれ0.596, 0.407, 0.875であった。
植物防除剤の使用に対する効果を推定するために,予測した雑草マップに基づいて除草率とグリッドサイズ(散布解像度)の関係を定量化する。
噴霧解像度が 1.78 x 1.78 cm2 の場合、噴霧の節約率は90%となる。
研究によると、深層畳み込みニューラルネットワークは、フィールド画像と空中画像の両方から雑草を分類し、良好な結果をもたらすことができる。
関連論文リスト
- SatSynth: Augmenting Image-Mask Pairs through Diffusion Models for Aerial Semantic Segmentation [69.42764583465508]
我々は,地球観測における注釈付きデータの不足に対処するために,生成的画像拡散の可能性を探る。
我々の知る限りでは、衛星セグメンテーションのための画像と対応するマスクの両方を最初に生成する。
論文 参考訳(メタデータ) (2024-03-25T10:30:22Z) - HarvestNet: A Dataset for Detecting Smallholder Farming Activity Using
Harvest Piles and Remote Sensing [50.4506590177605]
HarvestNetは、2020-2023年のエチオピアのティグレイとアムハラの農場の存在をマッピングするためのデータセットである。
本研究は,多くの小作システムの特徴ある収穫杭の検出に基づく新しい手法を提案する。
本研究は, 農作物のリモートセンシングが, 食品の安全地帯において, よりタイムリーかつ正確な農地評価に寄与することが示唆された。
論文 参考訳(メタデータ) (2023-08-23T11:03:28Z) - End-to-end deep learning for directly estimating grape yield from
ground-based imagery [53.086864957064876]
本研究は, ブドウ畑の収量推定に深層学習と併用した近位画像の応用を実証する。
オブジェクト検出、CNN回帰、トランスフォーマーモデルという3つのモデルアーキテクチャがテストされた。
本研究は,ブドウの収量予測における近位画像と深層学習の適用性を示した。
論文 参考訳(メタデータ) (2022-08-04T01:34:46Z) - Agricultural Plant Cataloging and Establishment of a Data Framework from
UAV-based Crop Images by Computer Vision [4.0382342610484425]
本稿では,UAVからの収穫画像の時間的・空間的識別と識別を自動化するための手動ワークフローを提案する。
提案手法は農業におけるUAVデータの分析と解釈を大幅に改善する。
論文 参考訳(メタデータ) (2022-01-08T21:14:07Z) - Development of Automatic Tree Counting Software from UAV Based Aerial
Images With Machine Learning [0.0]
本研究の目的は,UAVによる高解像度画像から,シルト大学キャンパスの指定領域の樹木を自動カウントすることである。
Adobe Photoshopのフォトマージツールを使って、高さ30mで20%オーバーラップした画像を地上局でオフラインで縫い付けました。
論文 参考訳(メタデータ) (2022-01-07T22:32:08Z) - Weed Recognition using Deep Learning Techniques on Class-imbalanced
Imagery [4.96981595868944]
我々は,最先端の5つのディープニューラルネットワークを調査し,雑草認識の性能評価を行った。
VGG16は小規模データセットで他より優れ、ResNet-50は大規模データセットで他のディープネットワークよりも優れていた。
論文 参考訳(メタデータ) (2021-12-15T01:00:05Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - A CNN Approach to Simultaneously Count Plants and Detect Plantation-Rows
from UAV Imagery [56.10033255997329]
畳み込みニューラルネットワーク(CNN)を用いた新しい深層学習手法を提案する。
高度に乾燥したプランテーション構成を考慮した植物を数えながら、同時にプランテーション・ロウを検出し、配置する。
提案手法は、異なる種類の作物のUAV画像において、植物と植物をカウントおよびジオロケートするための最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-12-31T18:51:17Z) - Weed Density and Distribution Estimation for Precision Agriculture using
Semi-Supervised Learning [0.0]
雑草密度と分布のロバストな推定のための深層学習に基づく半教師付き手法を提案する。
本研究では、作物や雑草を含む前景の植生画素を、畳み込みニューラルネットワーク(CNN)に基づく教師なしセグメンテーションを用いて最初に同定する。
雑草感染地域は、細調整されたCNNを用いて識別され、手作りの特徴を設計する必要がなくなる。
論文 参考訳(メタデータ) (2020-11-04T09:35:53Z) - Agriculture-Vision: A Large Aerial Image Database for Agricultural
Pattern Analysis [110.30849704592592]
本稿では,農業パターンのセマンティックセグメンテーションのための大規模空中農地画像データセットであるGarmry-Visionを提案する。
各画像はRGBと近赤外線(NIR)チャンネルで構成され、解像度は1ピクセルあたり10cmである。
農家にとって最も重要な9種類のフィールド異常パターンに注釈を付ける。
論文 参考訳(メタデータ) (2020-01-05T20:19:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。