論文の概要: Investigation to answer three key questions concerning plant pest identification and development of a practical identification framework
- arxiv url: http://arxiv.org/abs/2407.18000v1
- Date: Thu, 25 Jul 2024 12:49:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-26 14:08:56.334941
- Title: Investigation to answer three key questions concerning plant pest identification and development of a practical identification framework
- Title(参考訳): 植物害虫の識別に関する重要な3つの疑問に答えるための調査と実践的識別枠組みの開発
- Authors: Ryosuke Wayama, Yuki Sasaki, Satoshi Kagiwada, Nobusuke Iwasaki, Hitoshi Iyatomi,
- Abstract要約: 334K画像を用いた精密で頑健で高速な植物害虫識別フレームワークを開発した。
我々の2段階植物害虫識別フレームワークは,91.0%,88.5%の精度とマクロF1スコアを達成できた。
- 参考スコア(独自算出の注目度): 2.388418486046813
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The development of practical and robust automated diagnostic systems for identifying plant pests is crucial for efficient agricultural production. In this paper, we first investigate three key research questions (RQs) that have not been addressed thus far in the field of image-based plant pest identification. Based on the knowledge gained, we then develop an accurate, robust, and fast plant pest identification framework using 334K images comprising 78 combinations of four plant portions (the leaf front, leaf back, fruit, and flower of cucumber, tomato, strawberry, and eggplant) and 20 pest species captured at 27 farms. The results reveal the following. (1) For an appropriate evaluation of the model, the test data should not include images of the field from which the training images were collected, or other considerations to increase the diversity of the test set should be taken into account. (2) Pre-extraction of ROIs, such as leaves and fruits, helps to improve identification accuracy. (3) Integration of closely related species using the same control methods and cross-crop training methods for the same pests, are effective. Our two-stage plant pest identification framework, enabling ROI detection and convolutional neural network (CNN)-based identification, achieved a highly practical performance of 91.0% and 88.5% in mean accuracy and macro F1 score, respectively, for 12,223 instances of test data of 21 classes collected from unseen fields, where 25 classes of images from 318,971 samples were used for training; the average identification time was 476 ms/image.
- Abstract(参考訳): 植物害虫を同定するための実用的で堅牢な自動診断システムの開発は、効率的な農業生産に不可欠である。
本稿では,画像に基づく植物害虫識別の分野において,これまで解決されていない3つの重要な研究課題(RQ)について検討する。
得られた知見に基づいて, 4つの植物部分(葉先, 葉先, 果実, キュウリ, トマト, イチゴ, ナス)78種と27の農場で捕獲された20種からなる334K画像を用いて, 正確な, 堅牢かつ高速な植物害虫識別フレームワークを構築した。
その結果,以下のことが判明した。
1)モデルの適切な評価には,トレーニング画像が収集されたフィールドの画像を含めるべきではない。
2)葉や果実などのROIの事前抽出は,識別精度の向上に寄与する。
(3)同じ害虫に対する同一制御法とクロスクロップ訓練法を用いた近縁種の統合が有効である。
この2段階の植物害虫識別フレームワークはROI検出と畳み込みニューラルネットワーク(CNN)に基づく識別が可能であり, 平均精度が91.0%, マクロF1スコアが88.5%, 未確認フィールドから収集した21種類のテストデータ12,223件に対して, 平均識別時間は476ms/imageであった。
関連論文リスト
- PlantSeg: A Large-Scale In-the-wild Dataset for Plant Disease Segmentation [37.383095056084834]
植物病データセットは一般的にセグメンテーションラベルを欠いている。
実験室の設定からの画像を含む典型的なデータセットとは異なり、PlanetSegは主に野生の植物病の画像で構成されている。
植物セグは11,400枚の画像と病気のセグメンテーションマスクと、植物の種類によって分類された8000枚の健康な植物画像が特徴である。
論文 参考訳(メタデータ) (2024-09-06T06:11:28Z) - High-Throughput Phenotyping using Computer Vision and Machine Learning [0.0]
我々はオークリッジ国立研究所が提供した1,672枚のPopulus Trichocarpaの画像と白ラベルで治療を行った。
光文字認識(OCR)は、植物上でこれらのラベルを読むために用いられた。
機械学習モデルを用いて,これらの分類に基づいて処理を予測し,解析されたEXIFタグを用いて葉の大きさと表現型間の相関を見いだした。
論文 参考訳(メタデータ) (2024-07-08T19:46:31Z) - Semantic Image Segmentation with Deep Learning for Vine Leaf Phenotyping [59.0626764544669]
本研究では,ブドウの葉のイメージを意味的にセグメント化するためにDeep Learning法を用いて,葉の表現型自動検出システムを開発した。
私たちの研究は、成長や開発のような動的な特性を捉え定量化できる植物ライフサイクルのモニタリングに寄与します。
論文 参考訳(メタデータ) (2022-10-24T14:37:09Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - Leaf Image-based Plant Disease Identification using Color and Texture
Features [0.1657441317977376]
自己収集されたデータセットの精度は、病気の識別に82.47%、健康と疾患の分類に91.40%である。
このプロトタイプシステムは、より多くの病種を追加したり、特定の作物や病種をターゲットにすることで拡張することができる。
論文 参考訳(メタデータ) (2021-02-08T20:32:56Z) - A CNN Approach to Simultaneously Count Plants and Detect Plantation-Rows
from UAV Imagery [56.10033255997329]
畳み込みニューラルネットワーク(CNN)を用いた新しい深層学習手法を提案する。
高度に乾燥したプランテーション構成を考慮した植物を数えながら、同時にプランテーション・ロウを検出し、配置する。
提案手法は、異なる種類の作物のUAV画像において、植物と植物をカウントおよびジオロケートするための最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-12-31T18:51:17Z) - One-Shot Learning with Triplet Loss for Vegetation Classification Tasks [45.82374977939355]
三重項損失関数は、ワンショット学習タスクの精度を大幅に向上できる選択肢の1つである。
2015年からは、多くのプロジェクトがシームズネットワークとこの種の損失を顔認識とオブジェクト分類に利用している。
論文 参考訳(メタデータ) (2020-12-14T10:44:22Z) - Real-time Plant Health Assessment Via Implementing Cloud-based Scalable
Transfer Learning On AWS DeepLens [0.8714677279673736]
植物葉病の検出・分類のための機械学習手法を提案する。
私たちは、AWS SageMaker上でスケーラブルな転送学習を使用して、リアルタイムの実用的なユーザビリティのために、AWS DeepLensにインポートしています。
果実や野菜の健康・不健康な葉の広範な画像データセットに関する実験では,植物葉病のリアルタイム診断で98.78%の精度を示した。
論文 参考訳(メタデータ) (2020-09-09T05:23:34Z) - Pollen13K: A Large Scale Microscope Pollen Grain Image Dataset [63.05335933454068]
この研究は、1万3千以上の天体を含む最初の大規模花粉画像データセットを提示する。
本稿では, エアロバイオロジカルサンプリング, 顕微鏡画像取得, 物体検出, セグメンテーション, ラベル付けなど, 採用データ取得のステップに注目した。
論文 参考訳(メタデータ) (2020-07-09T10:33:31Z) - Two-View Fine-grained Classification of Plant Species [66.75915278733197]
本研究では,2視点の葉のイメージ表現に基づく新しい手法と,植物種の粒度認識のための階層的分類戦略を提案する。
シームズ畳み込みニューラルネットワークに基づく深度測定は、多数のトレーニングサンプルへの依存を減らし、新しい植物種に拡張性を持たせるために用いられる。
論文 参考訳(メタデータ) (2020-05-18T21:57:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。