論文の概要: On the Image-Based Detection of Tomato and Corn leaves Diseases : An
in-depth comparative experiments
- arxiv url: http://arxiv.org/abs/2312.08659v1
- Date: Thu, 14 Dec 2023 05:11:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-15 23:58:45.983076
- Title: On the Image-Based Detection of Tomato and Corn leaves Diseases : An
in-depth comparative experiments
- Title(参考訳): トマトとトウモロコシの葉病の画像に基づく検出について : 詳細な比較実験
- Authors: Affan Yasin, Rubia Fatima
- Abstract要約: 本研究は、植物画像分類のための畳み込みニューラルネットワーク(CNN)に基づく、新しい植物病検出モデルを提案する。
このモデルは2つの異なる植物病を4つのカテゴリに分類し、植物病の同定のための新しいテクニックを提示する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The research introduces a novel plant disease detection model based on
Convolutional Neural Networks (CNN) for plant image classification, marking a
significant contribution to image categorization. The innovative training
approach enables a streamlined and efficient system implementation. The model
classifies two distinct plant diseases into four categories, presenting a novel
technique for plant disease identification. In Experiment 1, Inception-V3,
Dense-Net-121, ResNet-101-V2, and Xception models were employed for CNN
training. The newly created plant disease image dataset includes 1963 tomato
plant images and 7316 corn plant images from the PlantVillage dataset. Of
these, 1374 tomato images and 5121 corn images were used for training, while
589 tomato images and 2195 corn images were used for testing/validation.
Results indicate that the Xception model outperforms the other three models,
yielding val_accuracy values of 95.08% and 92.21% for the tomato and corn
datasets, with corresponding val_loss values of 0.3108 and 0.4204,
respectively. In Experiment 2, CNN with Batch Normalization achieved disease
detection rates of approximately 99.89% in the training set and val_accuracy
values exceeding 97.52%, accompanied by a val_loss of 0.103. Experiment 3
employed a CNN architecture as the base model, introducing additional layers in
Model 2, skip connections in Model 3, and regularizations in Model 4. Detailed
experiment results and model efficiency are outlined in the paper's sub-section
1.5. Experiment 4 involved combining all corn and tomato images, utilizing
various models, including MobileNet (val_accuracy=86.73%), EfficientNetB0
(val_accuracy=93.973%), Xception (val_accuracy=74.91%), InceptionResNetV2
(val_accuracy=31.03%), and CNN (59.79%). Additionally, our proposed model
achieved a val_accuracy of 84.42%.
- Abstract(参考訳): 本研究は、植物画像分類のための畳み込みニューラルネットワーク(CNN)に基づく新しい植物病検出モデルを導入し、画像分類への重要な貢献を示す。
革新的なトレーニングアプローチは、合理化され効率的なシステム実装を可能にする。
このモデルは2つの異なる植物病を4つのカテゴリに分類し、植物病の同定の新しい技術を示す。
実験1ではinception-v3, dense-net-121, resnet-101-v2, xceptionモデルを用いてcnnトレーニングを行った。
新たに作成された植物病画像データセットには、1963年のトマト植物画像と7316のトウモロコシ植物画像が含まれている。
そのうち1374点のトマト画像と5121点のトウモロコシ画像が訓練に使われ、589点のトマト画像と2195点のトウモロコシ画像が検査・検証に使用された。
結果は、Xceptionモデルが他の3モデルより優れており、それぞれ95.08%と92.21%のval_accuracy値、対応するval_loss値が0.3108と0.4204であることを示している。
実験2では、Batch Normalizationを併用したCNNがトレーニングセットで約99.89%、val_accuracy値が97.52%を超え、val_lossが0.103となった。
実験3ではCNNアーキテクチャをベースモデルとして採用し、モデル2のレイヤを追加し、モデル3の接続をスキップし、モデル4の正規化を行った。
詳細な実験結果とモデル効率は、論文のサブセクション1.5で概説されている。
実験4では、すべてのトウモロコシとトマトの画像を組み合わせて、mobilenet (val_accuracy=86.73%), efficientnetb0 (val_accuracy=93.973%), xception (val_accuracy=74.91%), inceptionresnetv2 (val_accuracy=31.03%), cnn (59.79%) などのモデルを用いた。
さらに,提案モデルのval_accuracyは84.42%であった。
関連論文リスト
- Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Comparative Performance Analysis of Transformer-Based Pre-Trained Models for Detecting Keratoconus Disease [0.0]
本研究は、変性眼疾患である角膜症(keratoconus)の診断のために、訓練済みの8つのCNNを比較した。
MobileNetV2は角膜と正常な症例を誤分類の少ない場合に最も正確なモデルであった。
論文 参考訳(メタデータ) (2024-08-16T20:15:24Z) - Device-friendly Guava fruit and leaf disease detection using deep
learning [0.0]
本研究は,果実や葉の画像を用いた深層学習に基づく植物病診断システムを提案する。
システムの実装には5つの最先端の畳み込みニューラルネットワーク(CNN)が使用されている。
論文 参考訳(メタデータ) (2022-09-26T10:19:57Z) - End-to-end deep learning for directly estimating grape yield from
ground-based imagery [53.086864957064876]
本研究は, ブドウ畑の収量推定に深層学習と併用した近位画像の応用を実証する。
オブジェクト検出、CNN回帰、トランスフォーマーモデルという3つのモデルアーキテクチャがテストされた。
本研究は,ブドウの収量予測における近位画像と深層学習の適用性を示した。
論文 参考訳(メタデータ) (2022-08-04T01:34:46Z) - Facilitated machine learning for image-based fruit quality assessment in
developing countries [68.8204255655161]
自動画像分類は食品科学における教師あり機械学習の一般的な課題である。
事前学習型視覚変換器(ViT)に基づく代替手法を提案する。
標準的なデバイス上で限られたリソースで簡単に実装できる。
論文 参考訳(メタデータ) (2022-07-10T19:52:20Z) - An Efficient End-to-End Deep Neural Network for Interstitial Lung
Disease Recognition and Classification [0.5424799109837065]
本稿では、IDDパターンを分類するためのエンドツーエンドのディープ畳み込みニューラルネットワーク(CNN)を提案する。
提案モデルでは,カーネルサイズが異なる4つの畳み込み層と,Rectified Linear Unit (ReLU) アクティベーション機能を備える。
128のCTスキャンと5つのクラスからなる21328の画像パッチからなるデータセットを用いて、提案モデルのトレーニングと評価を行う。
論文 参考訳(メタデータ) (2022-04-21T06:36:10Z) - What's the Difference? The potential for Convolutional Neural Networks
for transient detection without template subtraction [0.0]
本稿では、画像から天体物理学的トランジェントを分離するための畳み込みニューラルネットワーク(CNN)の可能性について検討する。
ダーク・エナジー・サーベイのデータを用いて、我々はCNNを用いて「リアル・ボガス」分類を自動化する。
論文 参考訳(メタデータ) (2022-03-14T18:00:03Z) - Performance, Successes and Limitations of Deep Learning Semantic
Segmentation of Multiple Defects in Transmission Electron Micrographs [9.237363938772479]
深層学習Mask Regional Convolutional Neural Network (Mask R-CNN)モデルを用いて, 電子顕微鏡によるFeCrAl合金の欠陥のセマンティックセグメンテーションを行う。
本稿では, 欠陥形状の予測分布, 欠陥サイズ, 欠陥同感度などの量に着目し, キーモデルの性能統計の詳細な分析を行う。
全体として、現在のモデルは、顕微鏡画像中の複数の欠陥タイプを自動解析し、定量化するための、高速で効果的なツールであることがわかった。
論文 参考訳(メタデータ) (2021-10-15T17:57:59Z) - High performing ensemble of convolutional neural networks for insect
pest image detection [124.23179560022761]
害虫の寄生は作物の被害の主な原因であり、世界中の収入を失った。
我々は異なるトポロジに基づいてCNNのアンサンブルを生成する。
ディープネットワーク最適化のための2つの新しいAdamアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-28T00:49:11Z) - A CNN Approach to Simultaneously Count Plants and Detect Plantation-Rows
from UAV Imagery [56.10033255997329]
畳み込みニューラルネットワーク(CNN)を用いた新しい深層学習手法を提案する。
高度に乾燥したプランテーション構成を考慮した植物を数えながら、同時にプランテーション・ロウを検出し、配置する。
提案手法は、異なる種類の作物のUAV画像において、植物と植物をカウントおよびジオロケートするための最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-12-31T18:51:17Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。